Strona główna Analizy Deepfake’i z politykami, czyli zaklęte zabawkowe figurki

Deepfake’i z politykami, czyli zaklęte zabawkowe figurki

Prosty sposób na zabawę czy poważne zagrożenie dla świata polityki?

Deepfake'i z politykami, czyli zaklęte zabawkowe figurki

Fot. August de Richelieu / Pexels / Modyfikacje: Demagog

Deepfake’i z politykami, czyli zaklęte zabawkowe figurki

Prosty sposób na zabawę czy poważne zagrożenie dla świata polityki?

Wyobraź sobie, że możesz wejść do ogromnego sklepu z zabawkami, w którym znajdują się figurki polityków. Na każdej półce mnóstwo modeli z całego świata. Możesz wybrać jeden za darmo. Jedyny problem tkwi w tym, że model może mówić i robić, co tylko zechce (pechowo czasami też w nocy, dawno po programach informacyjnych w telewizji). Może więc wyrwać się spod naszej kontroli.

Trochę jak w Toy Story? Nie jest to zbyt dużą abstrakcją, jeżeli weźmiemy pod uwagę, że w ostatnim czasie nasze oczy widziały Baracka Obamę w towarzystwie Angeli Merkel przy wspólnej budowie zamku z piasku czy też Emmanuela Macrona, który ucieka przed policją w czasie protestów. 

Wszystkie te sytuacje to oczywiście fikcja, deepfake’i stworzone – często dla zabawy – przy wykorzystaniu narzędzi do generowania grafik lub wideo. Tylko w którym miejscu kończy się przestrzeń na „zabawę politykami”? Manipulacje wizerunkami polityków mogą wpływać na ich poparcie, zmiany społeczne czy gospodarcze, a nawet relacje międzynarodowe czy przebieg wojen. W niektórych przypadkach sztuczna inteligencja pozwala na sprawne tworzenie satyry, a w innych może okazać się zmyślnie użytym narzędziem do dyskredytowania politycznych przeciwników.

Być może w ogóle nie powinno być przestrzeni na taką „zabawę”? Pamiętajmy, że w sieci mamy do czynienia z osobami o różnych kompetencjach cyfrowych i medialnych. Granice między satyrą, trollingiem i dezinformacją bywają cienkie. Pytanie pozostaje otwarte. Tymczasem przed wami zestawienie deepfake’ów, w przypadku których „zabawa” potencjalnie mogła nieść śmieszne, a czasami także poważniejsze konsekwencje dla wizerunku polityków, ich ugrupowań czy nawet całego świata polityki.

1. „Baby Shark, doo-doo, doo-doo” jako hymn Stanów Zjednoczonych – czemu by nie?

Pod koniec 2022 roku sieć obiegły nagrania przedstawiające Joe Bidena. W pewnym momencie polityk postanowił zaśpiewać dziecięcą piosenkę „Baby Shark”, która do tej pory zdobyła 13 mld wyświetleń na YouTube. Wielu z nas na pewno chciałoby zobaczyć jakiegoś polityka w takiej właśnie sytuacji. Twórcy filmu z youtubowego kanału Synthetic Voices zaznaczyli, że jest to wideo wygenerowane, jednak w sieci wszystko może zacząć żyć swoim życiem i krążyć w różnych wersjach.

Pod różnymi wpisami na Instagramie i w komentarzach na TikToku zmieszani internauci pytali m.in.: „co u licha?” – w końcu mógł być to jakiś niecodzienny żart. W dodatku niektóre osoby zaczęły obrażać lub podważać kompetencje prezydenta: „panie i panowie, oto kto rządzi tym krajem! Jak?!?!?!”, „stracił rozum”. To tylko jeden prosty przykład tego, jak deepfake’owy mem może prowadzić do rozwoju fałszywych informacji i hejtu w sieci.

2. „Heil Hydra!”. W której wersji świata Marvela żyjemy?

W marcu 2023 roku, gdy przed Donaldem Trumpem postawiono zarzuty, które dotyczyły fałszowania dokumentacji płatności na rzecz gwiazdy filmów dla dorosłych, gubernator Florydy Ron DeSantis miał powiedzieć, że „widzimy sukces naszej kampanii »Never Trump«. Tak, mamy 30 punktów straty w sondażach z zerową wiarygodnością, ale teraz Trump został oskarżony”. Przemówienie miał zakończyć słowami „Hail Hydra!” – okrzykiem wzorowanej na nazistach przestępczej organizacji z filmów Marvela.

@socialtrashmonster

Now with TrumpIndicted, Ron DeSantis has a message. #rondesantia #trump #fyp#foryourpage #foru #potus2024 #court #trumplies #donaldtrump #republican

♬ original sound – SocialTrashMonster

Na Twitterze pod jednym z wpisów na ten temat wielu internautów od razu dostrzegło, że jest to żart oparty na nagraniu stworzonym dzięki sztucznej inteligencji. Użytkownicy byli pod wrażeniem tego, jak dobrze może wyglądać deepfake. „Przerażająco dobry fake”, „co za niesamowity fake”pisali użytkownicy Twittera. Z kolei na TikToku zdarzały się przypadki, w których internauci dopuszczali do siebie myśl, że polityk naprawdę mógł to powiedzieć. „Czy on powiedział Hail Hydra?”pytał jeden z użytkowników, nie dowierzając absurdalnej sytuacji. W końcu politycy mówią czasami… dziwne rzeczy.

3. „Jutro będzie dzisiaj”. Dziwne wpadki Kamali Harris, których nigdy nie było

Większość z nas jest w stanie przypomnieć sobie choć jedną wpadkę polityka w czasie wystąpienia. W Polsce najbardziej ikonicznym przykładem stała się chyba wpadka Ewy Kopacz, która mówiła, że ludzie rzucali kamieniami w dinozaury. Co jeżeli sfabrykowalibyśmy taką wpadkę? W kwietniu 2023 roku internauci mogli usłyszeć, jak wiceprezydentka USA, Kamala Harris, użyła dość niecodziennego sformułowania. Dzisiaj jest dzisiaj. Wczoraj było wczorajsze dzisiaj. A jutro będzie dla nas dzisiaj” – mówiła polityczka, bełkocząc pod nosem jak nietrzeźwa i wykonując pokraczne ruchy dłońmi.

Kamala Harris bywa krytykowana za używanie wielu niezrozumiałych i bezsensownych zwrotów. Jednak tym razem był to po prostu deepfake. Wideo bez odpowiednich oznaczeń zostało rozpowszechnione w różnych serwisach, a część internautów wyraziła głosy krytyki. Niektórzy sugerowali, że kobieta jest pijana lub znajduje się pod wpływem substancji psychoaktywnych. To kolejny przykład tego, jak wygenerowane obrazy mogą pobudzać opinię publiczną do bezpodstawnej krytyki i hejtu.

4. Kapitulacja czy pokój w Ukrainie? Największe niebezpieczeństwa deepfake’ów

Jednym z najgroźniejszych deepfake’ów z obrazem polityków – opisywanym także w naszych poprzednich tekstach – wydaje się ten z użyciem wizerunku prezydenta Wołodymyra Zełenskiego. Pojawił się on w marcu 2022 roku i przedstawiał polityka, który rzekomo wzywał ukraińskie wojska do kapitulacji. Nieco mniej znany jest fakt, że w podobnym czasie w internecie pojawił się też deepfake z Władimirem Putinem ogłaszającym, że Rosja i Ukraina doszły do porozumienia, a wojna dobiegła końca. W czasie wojny Rosjanie podszyli się też pod ukraińskiego premiera i próbowali dodzwonić się do Bayraktara – producenta dronów wojskowych.

Rozpowszechnianie takich deepfake’ów może wywołać poważne skutki i wpływać na wydarzenia na froncie czy relacje międzynarodowe. W takim przypadku nawet satyra może nieść katastrofalne konsekwencje i to nie tylko w kontekście słupków wyborczych. Szczęśliwie każdy z powyższych przypadków został w porę zidentyfikowany. Tylko co gdyby tak się nie stało?

Podsumowanie – groźne czy nie… warto wiedzieć, jak je weryfikować

Niezależnie od tego, z jaką łatwością przyjdzie nam weryfikacja deepfake’ów „na oko” i jak bardzo groźne wydają nam się różne ich przykłady, warto poznać techniki, które ułatwią nam dokładniejszy fact-checking. Narzędzia te pomogą też w edukacji mniej doświadczonych w tym zakresie osób, np. członków rodziny, uczniów czy znajomych.

Deepfake’owe filmy można sprawdzić m.in. przy użyciu Deepware Scanner. Narzędzie to ocenia prawdopodobieństwo ingerencji sztucznej inteligencji w dany film. Z kolei obrazy wygenerowane m.in. przez Midjourney czy DALL-E można sprawdzić z pomocą AI-Generated Image Detection od TheHive.ai. Trzeba pamiętać jednak, że nie są to narzędzia w 100 proc. idealne. Zawsze warto dokładniej przyjrzeć się obrazom w sieci. Więcej na ten temat znajdziesz w analizie na temat weryfikacji generowanych obrazów.

*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter

Pomóż nam sprawdzać, czy politycy mówią prawdę.

Nie moglibyśmy kontrolować polityków, gdyby nie Twoje wsparcie.

Wpłać

Dowiedz się, jak radzić sobie z dezinformacją w sieci

Poznaj przydatne narzędzia na naszej platformie edukacyjnej

Sprawdź!