Informujemy o najważniejszych wydarzeniach ze świata fact-checkingu.
Deepfake w kampanii wyborczej. AI wykorzystana do promocji Nawrockiego
– Polska musi postawić na własne zasoby, a nie poddawać się presji unijnych dyrektyw – mówi prezenterka, podobna do Danuty Holeckiej z Telewizji Republika, relacjonująca na TikToku wiec Karola Nawrockiego. Zdjęcie studia TV Republika w patriotycznej aranżacji krąży natomiast po Facebooku za sprawą profilu „Głosuję na Karola Nawrockiego”. Co łączy te materiały? Oba są nieprawdziwe – wygenerowała je sztuczna inteligencja.

fot. TikTok / Pexels / Modyfikacje: Demagog
Deepfake w kampanii wyborczej. AI wykorzystana do promocji Nawrockiego
– Polska musi postawić na własne zasoby, a nie poddawać się presji unijnych dyrektyw – mówi prezenterka, podobna do Danuty Holeckiej z Telewizji Republika, relacjonująca na TikToku wiec Karola Nawrockiego. Zdjęcie studia TV Republika w patriotycznej aranżacji krąży natomiast po Facebooku za sprawą profilu „Głosuję na Karola Nawrockiego”. Co łączy te materiały? Oba są nieprawdziwe – wygenerowała je sztuczna inteligencja.
Od lat odróżniamy fałsz od prawdy. Pomóż nam działać dalej: przekaż 1,5% podatku Demagogowi! Wpisz w PIT: KRS 0000615583
– Dla mnie PiS to nie tylko partia. To styl życia – mówi mężczyzna w bordowej marynarce, łudząco podobny do Mariusza Kamińskiego, europosła PiS, byłego ministra spraw wewnętrznych i administracji.
– To miłość do Polski ponad wszystko, niezłomność, patriotyzm i walka o prawdę – dodaje. Zachęca, aby w komentarzach pisać „PiS” oraz podawać nagranie dalej. – Tylko razem możemy ochronić Polskę przed jej wrogami – tłumaczy. W czasie wypowiedzi kilka razy pokazuje otwarte dłonie.
Tyle że z sześcioma palcami.
Film opublikowano na profilu Tylko Karol Nawrocki na TikToku. Materiał został obejrzany ponad 46 tysięcy razy i dotarł nie tylko do zwolenników Karola Nawrockiego. Poza komentarzami wspierającymi (np. [pisownia oryginalna]: „PiS”, „TylkoPISdziekiPanu”, „tylko dobrze edukowani czyli Karol Nawrocki”) można było znaleźć także wpisy krytyczne wobec poprzedniej władzy ([pisownia oryginalna]: „Precz spisem”, „masakra, „Nigdy pisu”).
TikTok: Sztuczna inteligencja wspiera Karola Nawrockiego
Na profile promujące Karola Nawrockiego na TikToku z wykorzystaniem wizerunków polityków, które wygenerowano przy użyciu sztucznej inteligencji, zwrócił uwagę Tomasz Janusz na portalu X.
Janusz napisał o profilu Partia PiS Przeciwko Po, na którym awatary przypominające polityków – m.in. Zbigniewa Ziobrę, Jarosława Kaczyńskiego, Annę Marię Żukowską oraz dziennikarzy, np. Danutę Holecką – zachęcają do głosowania na Nawrockiego, chwalą Prawo i Sprawiedliwość oraz krytykują Donalda Tuska i partie lewicowe.
‼️ Na TikToku jest profil używający AI i wizerunków polityków PiS do promowania Nawrockiego.
Od końca stycznia na tamtym serwisie działa profil „Partia PiS Przeciwko Po”. Panie @szefernaker, to wasze dzieło? Jak nie to chyba warto zgłosić? Na znalezisko wpadła @Lilac1979183463 https://t.co/Fm3J4PwdjD pic.twitter.com/VEshH42XUV
— Tomasz Janusz (@TomaszJanusz) February 16, 2025
Tego samego dnia profil zniknął z TikToka. Ale było jeszcze jedno konto – Tylko Karol Nawrocki. Profil publikował bliźniacze treści, a w komentarzach udostępniał numer konta (inny niż oficjalny numer konta kampanii Nawrockiego) i zachęcał do przelewania datków.
Ten profil również zniknął z TikToka. Dziennikarze Wirtualnych Mediów policzyli, że od 31 stycznia do 17 lutego opublikowano na nim 198 filmów wygenerowanych przez narzędzia sztucznej inteligencji.
Nie są to oficjalne konta Karola Nawrockiego. Paweł Szefernaker, szef sztabu Nawrockiego, nie odpowiedział dotychczas na nasze pytanie, czy w kampanii kandydata wykorzystywana jest w jakikolwiek sposób sztuczna inteligencja.
Jak to zostało zrobione? Oprogramowanie Humva
Filmy na koncie Tylko Karol Nawrocki powstały z użyciem oprogramowania Humva, generatora awatarów wykorzystującego sztuczną inteligencję – na niektórych filmikach widać znak wodny firmy (1, 2).
Postanowiłem sprawdzić, jak działa oprogramowanie. W ograniczonej wersji jest darmowe – aby stworzyć własny awatar, wystarczy wgrać zdjęcie, próbkę głosu i wybrać styl filmu. Na podstawie swojego zdjęcia ze strony Demagoga oraz nagrania, na którym czytam tekst z naszej strony, Humva zaproponowała mi kilka awatarów w różnym stylu.
Filmy nie są perfekcyjne. Głos ma ograniczoną intonację, ruchy ust nie zawsze odpowiadają wypowiadanym słowom, twarz jest nienaturalnie wygładzona. Niektóre filmy na profilu Tylko Karol Nawrocki wręcz wykorzystywały niedoskonałość awatarów – na jednym z filmów do głosowania na Karola Nawrockiego namawiał „brat Tadeusza Rydzyka”.
Facebook: Fałszywe studio TV Republiki i tajemniczy portal Newspol.pl
W „studiu TV Republikia”, przedstawionym na profilu Głosuję na Karola Nawrockiego, centralne miejsce zajmuje biały orzeł, a całe pomieszczenie jest w biało-czerwonych barwach. „Bóg Honor i Ojczyzna, gratulacje piękne studio❤️🙏🇵🇱” – komentuje jedna z użytkowniczek. Jej wpis uzyskuje 555 reakcji i 84 komentarze.
Na sam post zareagowało 34 tys. osób, prawie 5,3 tys. czytelników go skomentowało, a 1,1 tys. – podało dalej. To jeden z najpopularniejszych wpisów na tym profilu. Grafika nie przedstawia jednak prawdziwego studia TV Republika.
Profil powstał 28 listopada, kilka dni po ogłoszeniu, że Karol Nawrocki będzie startował wyborach prezydenckich. Konto nie skupia się jednak jedynie na promowaniu kandydatury Nawrockiego. Duża część wpisów to clickbaitowe tytuły, np. „Jarosław Kaczyński trafił do szpitala”, „Nie żyje gwiazda »Sanatorium miłości«”, które zachęcają do przejścia do portalu newspol.pl.
„Jesteśmy grupą młodych ludzi, którzy pasjonują się dziennikarstwem i chcą dla Was przekazywać i relacjonować ważne wydarzenia ze świata lub z kraju. Mamy nadzieje, że zostaniesz z nami na dłużej!”.
Artykuły na portalu częściowo dotyczą aktualnych tematów, przedstawianych w silnie nacechowany emocjonalnie sposób. Nie są podpisane. Nie wiadomo także, kto jest twórcą portalu.
Fani Karola Nawrockiego, Counter Strike’a i Jana Pawła II
Profil Głosuję na Karola Nawrockiego jest częścią większego internetowego ekosystemu – administruje również grupą Karol Nawrocki Prezydentem Polski, którą założono 4 grudnia 2024 roku. Zrzesza ona ponad 12 tys. członków – o prawie 7 tys. mniej niż grupa o dość podobnej nazwie – KAROL NAWROCKI Prezydent Polski 2025, prowadzona przez Joannę Lichocką z PiS.
Członkowie grupy wymieniają się memami i grafikami, najczęściej krytycznymi wobec rządu Donalda Tuska albo wspierającymi Karola Nawrockiego. Z kolei administrator udostępnia linki do portalu newspol.pl (1, 2, 3).
Komentujący nie zawsze zważają na charakter udostępnianych treści – pod linkiem do artykułu „Płonie Biedronka! W środku byli ludzie” sympatycy Nawrockiego piszą: „Proszę głosować na Karola Nawrockiego dziękuję”.
Nie tylko sympatię do Karola Nawrockiego wykorzystuje się do promowania treści z serwisu newspol.pl. Podobnie działają profile Bijemy Rekord Polubień Dla Jana Pawła II (1, 2, 3) oraz Rozdajemy Skiny do CS:GO (1, 2, 3).
Pokazuje to, że polityczne treści wygenerowane przez sztuczną inteligencję nie muszą służyć jedynie do promocji określonych kandydatów. Czasami ich twórcom może chodzić o wzbudzenie emocji i zaangażowanie użytkowników, którzy zostaną z nimi dłużej. Niezależnie od tego, czego dotyczą publikowane treści.
Czego nas nauczyły chałkonie?
Gdy polski internet opanowały „chałkonie” (1, 2, 3) – wygenerowane przez AI grafiki przedstawiające ogromne chałki przypominające konie, którym towarzyszył dopisek: „Ta kobieta upiekła Chałkonia, ale nikt jej nie pogratulował” – eksperci zwracali uwagę, że z pozoru niewinny żart pokazuje różnice w kompetencjach cyfrowych oraz związane z nimi zagrożenia.
Adrian Kordas, ekspert z Ośrodka Badań nad Bezpieczeństwem Sztucznej Inteligencji w NASK, wskazał, że najpopularniejszą grupą odbiorców takich treści są osoby w wieku 45–60 lat, które mogą być uznawane za „najłatwiejszy” cel cyberprzestępców.
W przypadku fałszywego studia TV Republika może być podobnie. Szczególnie że – jak wskazują wyniki badań late poll pracowni Ipsos – w wyborach parlamentarnych w 2023 roku PiS cieszył się największym poparciem wśród najstarszych wyborców.
Nie tylko dezinformacja. AI slop i boomertraps
Eksperci z NASK wskazują, że nawet jeśli dane treści nie są stworzone w celu dezinformacji, to wpisują się w inne zjawisko, nazywane AI slop (ang. artifficial intelligence – sztuczna inteligencja i slop – pomyje), czyli masowe generowanie grafik, które są tandetne, dlatego dość łatwo jest rozpoznać, że nie przedstawiają rzeczywistości.
Takie działanie może się łączyć z tzw. AI slop boomertrap, czyli „pułapką na boomera” – korzystaniem z niezdolności osób starszych do rozpoznania, że treści, z którymi wchodzą w interakcje, są wygenerowane przez sztuczną inteligencję.
Nie wszyscy rozpoznają fałszywki
Na to, że nie wszyscy użytkownicy mediów społecznościowych odróżniają „autentyczne” materiały od tych wygenerowanych przez AI, zwraca uwagę także Nikola Bochyńska, redaktor naczelna CyberDefence 24.
„Wystarczy przeanalizować wpisy pod niektórymi z fałszywych wideo. Część komentujących to zapewne boty, ale część to tzw. pożyteczni idioci, którzy zwiększają zasięg, odnosząc się do tego typu materiałów. Część z nich wyraża swoje poparcie, część nie zgadza się z głoszonymi tezami, co realnie wpływa na polaryzację użytkowników i ich przekonania polityczne”.
Mikołaj Rogalewicz, redaktor CyberDefence24 i ekspert ds. dezinformacji, wskazuje z kolei, że sztucznej inteligencji można również użyć do zdyskredytowania kontrkandydata, np. poprzez nagrania, w którym awatar przypominający polityka mówi coś kontrowersyjnego. Rogalewicz zwraca jednak uwagę, że używanie sztucznej inteligencji może skutecznie pomagać w promowaniu konkretnych polityków.
„Warto w tym przypadku przypomnieć sytuację z Francji, kiedy przed wyborami do PE stworzono konto na TikToku z postacią generowaną przez AI, która miała być krewną Marine Le Pen. Zasięgi tego konta były spore”.
„Siostrzenice Le Pen” przeciwko migrantom
Przed wyborami do Parlamentu Europejskiego w 2024 roku na TikToku pojawiło się wiele fałszywych filmów, które rzekomo przedstawiały trzy siostrzenice Marine Le Pen, liderki francuskiej prawicowej partii Zjednoczenie Narodowe.
Wizerunki Amandine i Chloé Le Pen oraz Leny Maréchal Le Pen powstały na podstawie zdjęć Marine Le Pen i Marion Maréchal z młodości. Twarze polityczek wmontowano w filmy popularnych francuskich influencerek. Niektóre z filmów wyświetlono nawet ponad 2 miliony razy.
„Siostrzenice Le Pen” były często przedstawiane w bieliźnie lub na plaży. Rozmawiały nie tylko o wyborach do Parlamentu Europejskiego. Niekiedy wypowiadały się nieprzychylnie o imigrantach – „Mohamed to facet, który obraża Zjednoczenie Narodowe, ale ląduje w moich prywatnych wiadomościach”, „Kiedy spacerujesz po Paryżu, widzisz więcej hidżabów niż bagietek”.
Anonimowy twórca jednego z kont przekonywał, że nie było to jednak działanie polityczne, a jedynie „eksperyment społeczny”, który miał pokazać niebezpieczeństwo płynące z dezinformacji i z deepfake’ów.
Pozytywne przykłady wykorzystania AI w kampanii
Niektórzy badacze uważają, że dotychczasowe obawy przed wpływem sztucznej inteligencji na wybory bywały przesadzone i wskazują na pozytywne przykłady zastosowań AI (1, 2).
Należy do nich Takahiro Anno, niezależny i nieznany szeroko kandydat na stanowisko gubernatora Tokio, który wykorzystał awatar sztucznej inteligencji, aby odpowiedzieć na 8 600 pytań wyborców. Zajął 5 miejsce wśród 56 kandydatów.
Z kolei Narenda Modi, premier Indii, używał sztucznej inteligencji do tłumaczenia swoich przemówień na języki regionalne, dzięki czemu mógł dotrzeć do obywateli, dla których hindi nie jest językiem ojczystym.
Konieczny: „Przygotowanie deepfake’ów będzie tylko coraz łatwiejsze”
Piotr Konieczny, specjalista ds. bezpieczeństwa i założyciel portalu Niebezpiecznik.pl, wskazuje jednak na to, że deepfaki z politykami i z celebrytami są wykorzystywane przez oszustów od dawna. Przygotowanie nagrań, które wyglądają wiarygodnie, jest coraz łatwiejsze.
Według Nikoli Bochyńskiej fałszywe treści, które zachęcają do wyboru konkretnego kandydata, powinny być usuwane z mediów społecznościowych, szczególnie w czasie trwającej kampanii, co platformy miały zadeklarować na spotkaniach z przedstawicielami Ministerstwa Cyfryzacji oraz NASK.
„Jak będzie w rzeczywistości? Przekonamy się sami – jako wyborcy i jako korzystający z social mediów. W końcu rząd zapowiedział program »Parasol wyborczy«, ale to czy będzie skuteczny – ocenimy już po kampanii”.
Program Fact-Checking and Countering Disinformation: Poland’s 2025 Presidential Election jest prowadzony przez Stowarzyszenie Demagog dzięki wsparciu EMIF zarządzanemu przez Calouste Gulbenkian Foundation. Wyłączna odpowiedzialność za wszelkie treści wspierane przez European Media and Information Fund (EMIF) spoczywa na autorach i niekoniecznie musi odzwierciedlać stanowisko EMIF i Partnerów Funduszu, Calouste Gulbenkian Foundation i European University Institute.
Przekaż nam 1,5% podatku!
Wesprzyj nas, przekazując 1,5% podatku na kontrolę polityków. Wpisz w PIT: KRS 0000615583
*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter