Czas czytania: około min.

Jarosław Kaczyński nie poparł Strajku Kobiet. Jak rozpoznać deepfake?

04.11.2020 godz. 14:46

Powielane w sieci nagranie jest satyryczną przeróbką.

Oświadczenie Jarosława Kaczyńskiego po wydaniu wyroku Trybunału Konstytucyjnego w sprawie aborcji wywołało ogromne kontrowersje i niezadowolenie, przyczyniając się tym samym do zwiększenia polaryzacji w polskim społeczeństwie. Wystąpienie doczekało się wielu „nowych” wersji o mniej lub bardziej poważnym charakterze. Jednym z popularniejszych przykładów jest (dla wielu pewnie oczywista) przeróbka oświadczenia, w której prezes PiS popiera protesty i krytykuje Kościół katolicki. 

Materiał pojawił się w wielu facebookowych grupach, w tym między innymi w Jestem gorszego sortu. Większość internautów zdawała sobie sprawę z żartu, niektórzy nawet ostrzegali w komentarzach, że jest to fake news.

 

Źródło: www.facebook.com

 

Bardziej zaawansowani użytkownicy programów do obróbki graficznej z łatwością mogą przygotować i rozpoznać zmontowane filmiki. Materiały tego typu często dezorientują jednak osoby, które nie znają się na nowoczesnych technologiach. Aktualnie media społecznościowe są masowo zasypywane satyrycznymi treściami, czego przykładem jest chociażby to wideo. W momencie tak dużego poruszenia społecznego wywołanego pandemią i protestami łatwo natrafić na tego rodzaju dezinformację.

Internauci, którzy zdawali sobie sprawę z satyrycznego charakteru materiału, dziwili się często, jak twórcom udało się uzyskać tak dużą płynność między poszczególnymi cięciami. Fakt ten wzbudził niepokój niektórych odbiorców w kontekście groźniejszych form użycia techniki w przyszłości. 

Montaż i generowanie obrazu przy użyciu sztucznej inteligencji. Jak zmanipulowano nagranie z Jarosławem Kaczyńskim?

Przerobione oświadczenie Jarosława Kaczyńskiego, w którym pozornie poparł on protesty przeciwko wyrokowi Trybunału Sprawiedliwości i skrytykował Kościół, opublikowano na licznych kanałach w mediach społecznościowych oraz na platformie YouTube. 

 

 

Przeróbkę można łatwo rozpoznać, znając pierwotne nagranie. Co jednak, jeśli z jakichś względów nie wiemy, jaki był oryginalny kontekst wydarzenia? Warto zauważyć, że przy tworzeniu nowej wersji oświadczenia Kaczyńskiego nie wykorzystano klasycznego montażu wideo polegającego na przycięciu poszczególnych fragmentów. Obecnie coraz więcej programów do obróbki materiałów filmowych oferuje możliwość generowania w miarę płynnych przejść, które poprzez zastosowanie sztucznej inteligencji uzupełniają (generują) poszczególne obszary obrazu między klatkami (np. efekt Morph Cut w programie Adobe Premiere Pro). Niweluje to widoczność cięć i nadaje filmowi płynność. Więcej na temat efektu Morph Cut możemy przeczytać na stronie Adobe: 

Zastosuj przejście wideo Morph Cut, aby wygładzić rozpraszające cięcia. Możesz także użyć Morph Cut, aby skutecznie zmienić kolejność klipów w nagraniu wideo przy jednoczesnym zapewnieniu płynnych przejść bez skoków w wizualnej ciągłości. Morph Cut wykorzystuje zaawansowane połączenie face trackingu i interpolacji przepływu optycznego, by stworzyć płynne przejścia między klipami. Efektywne użycie przejścia może sprawić, że wideo będzie płynne tak, jak naturalnie nagrywane wideo bez niechcianych przerw i słów, które mogą zakłócić ciągłość narracji. 

Technikę tę wykorzystuje się przy obróbce wywiadów lub statycznych nagrań wideo. Nie jest ona jednak doskonała, ponieważ sztuczna inteligencja nie radzi sobie ze szczegółami morfologicznymi ludzkiej twarzy lub gwałtownymi ruchami, co doprowadza często do drobnych, lecz widocznych zniekształceń.

Zmodyfikowane nagranie z Jarosławem Kaczyńskim zostało zatem przycięte w określonych miejscach, a następnie upłynnione poprzez wygenerowanie przejść między poszczególnymi klatkami. Po tym, jak zdamy sobie sprawę z istnienia takiej techniki, warto sprawdzić, jakie elementy nagrania wskazują na zastosowanie w nim sztucznej inteligencji. W tym przypadku będą to:

  • zaburzenia płynności materiału,
  • gwałtowne i nienaturalne ruchy powiek,
  • nienaturalne ruchy ramion i głowy.

Choć manipulacja tym nagraniem jest dla wielu oczywista, powyższe wskazówki mogą przydać się w przypadku innych fałszywych filmów, w których oszustwo nie jest możliwe do rozpoznania tylko na podstawie charakteru materiału.

Czy można uznać, że materiał z Jarosławem Kaczyńskim to deepfake?

Wielu internautów odniosło wrażenie, że materiał opracowano przy użyciu technologii deepfake. Ile w tym prawdy? Techniki deepfake używane są w celu manipulowania ruchomymi i nieruchomymi obrazami przy użyciu sztucznej inteligencji generującej obraz (również z dźwiękiem). W praktyce umożliwia to zniekształcanie wydźwięku treści prezentowanych w filmie, a nawet podmianę występujących w nim twarzy i dźwięków. Przeróbki te, choć niedoskonałe pod wieloma względami, mogą być łudząco podobne do autentycznych nagrań. Często stosuje się je w rozmaitych materiałach humorystycznych, jednak nie brakuje przypadków, w których używa się ich do celowego wprowadzania w błąd (np. w celach politycznych). 

Przeróbka z Jarosławem Kaczyńskim nie jest klasycznym przykładem techniki deepfake, którą często stosuje się do całkowitej podmiany wypowiedzi i twarzy znanych osób. Przykładowo wspomniany wcześniej efekt Morph Cut wykorzystuje jednak sztuczną inteligencję w celu generowania obrazu pomiędzy klatkami, co sprawia wrażenie upłynnienia materiału. 

Świetnym przykładem deepfake’u jest nagranie przedstawiające Baracka Obamę:

 

Jak wykryć deepfake?

Deepfake można wykryć poprzez uważne obserwowanie obrazu, który zawiera niedoskonałości. Szczególną uwagę warto zwrócić na takie mankamenty, jak nienaturalne ruchy ciała, w tym ramion, powiek i ust, a także niezsynchronizowany dźwięk i obraz. Wady te wynikają z faktu, iż przy obecnych możliwościach technologicznych sztuczna inteligencja nie zawsze radzi sobie z generowaniem dość subtelnych cech morfologicznych ludzkiego ciała. Doszło do tego także w przypadku zmodyfikowanego nagrania z Jarosławem Kaczyńskim. Obserwowanie wideo jest jednak bardzo czasochłonną i wymagającą skupienia metodą weryfikacji filmów.

Obecnie żadne prawo nie reguluje bezpośrednio działania technik deepfake. Walkę z przerobionymi nagraniami toczą jednak firmy technologiczne, które pracują nad technologiami zdolnymi do rozpoznawania przeróbek typu deepfake. Jedną z takich firm jest Microsoft, który we wrześniu 2020 roku wypuścił na rynek technologię Video Authenticator, zdolną do automatycznego wykrywania fałszywych nagrań. Innym przykładem jest firma Adobe Inc., która pracuje nad narzędziami potrafiącymi wykrywać i pokazywać pierwotne wersje obrazów.

Naukowcy z MIT opublikowani quiz, w którym możemy sprawdzić czy uda nam się rozpoznać deepfake.

Oryginalne oświadczenie Jarosława Kaczyńskiego. Prezes PiS nie poparł protestujących

W oryginalnym oświadczeniu opublikowanym przez Prawo i Sprawiedliwość w social mediach Jarosław Kaczyński krytykował protestujących i nawoływał do walki oraz obrony kościołów. 

 

Podsumowanie 

W okresie szczególnego chaosu informacyjnego związanego z protestami i epidemią w Polsce ważne jest, by jak największa część odbiorców była uświadomiona na temat działania rozmaitych technik manipulacyjnych. Krytyczne myślenie i podchodzenie z dozą ostrożności do publikowanych treści powinno ograniczyć rozprzestrzenianie się dezinformacji. 

Pomoże to też uniknąć zbędnych pomyłek związanych z nierozpoznaniem satyrycznego charakteru grafik lub materiałów wideo oraz innych przekłamań, które w sposób istotny mogą wpłynąć na jeszcze większą polaryzację lub zaostrzenie nastrojów społecznych.

➖
Podobał Ci się artykuł? Pomóż nam dzielić się prawdą!

• Wpłać darowiznę TUTAJ i działaj z nami!
• Śmiało rozpowszechniaj artykuł, prześlij go znajomym, nie zapomnij podać źródła z linkiem (www.demagog.org.pl).

*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter

POMÓŻ NAM DZIAŁAĆ!

Co­dzien­nie spraw­dza­my praw­do­mów­ność po­li­ty­ków. Walczymy z dez­in­for­ma­cją, fake new­sa­mi i ma­ni­pu­la­cją w prze­strze­ni pu­blicz­nej.

Żeby za­cho­wać nie­za­leż­ność, po­trze­bu­je­my Two­jego wsparcia.