Informujemy o najważniejszych wydarzeniach ze świata fact-checkingu.
Jak Rosjanie infekują Wikipedię, notatki społeczności i chatboty?
Rosyjska sieć propagandowa „Pravda” przenika do Wikipedii, do notatek społeczności na portalu X i do chatbotów. Za jej pomocą Rosja omija unijne sankcje i szerzy na Zachodzie dezinformację, głównie dotyczącą wojny w Ukrainie.

Jak Rosjanie infekują Wikipedię, notatki społeczności i chatboty?
Jak Rosjanie infekują Wikipedię, notatki społeczności i chatboty?
Rosyjska sieć propagandowa „Pravda” przenika do Wikipedii, do notatek społeczności na portalu X i do chatbotów. Za jej pomocą Rosja omija unijne sankcje i szerzy na Zachodzie dezinformację, głównie dotyczącą wojny w Ukrainie.
Każdego dnia miliony użytkowników korzystających z Wikipedii, z portalu X oraz z chatbotów są narażone na kontakt z treściami związanymi z rosyjską propagandą. Badania przeprowadzone przez Digital Forensic Research Lab oraz Check First przedstawiają niepokojący wpływ sieci propagandowej „Pravda” powiązanej z Rosją.
Z raportu wynika, że treści propagandowe są wykorzystywane jako źródła w Wikipedii, w notatkach społeczności w serwisie X i w odpowiedziach chatbotów, takich jak Chat GPT czy Gemini.
Czym jest sieć „Pravda”?
Sieć „Pravda” działa w internecie od wybuchu pełnoskalowej wojny w Ukrainie. Za jej pomocą Rosja prowadzi skoordynowane działania dezinformacyjne wśród państw Zachodu. Francuscy eksperci ustalili, że od połowy 2023 roku strony internetowe sieci funkcjonowały m.in. w Polsce, w Niemczech, w Austrii, w Szwajcarii, w Wielkiej Brytanii, w USA oraz we Francji.
Na stronach „Pravdy” pojawiają się artykuły z rosyjskich mediów, komunikaty płynące z Kremla oraz wpisy z Telegrama, które tworzą propagandyści z Rosji. W ten sposób Moskwa omija unijne sankcje nałożone na jej media państwowe, takie jak RT czy Sputnik.
Obejście sankcji pozwala na dotarcie do zachodnich społeczeństw z proklemowskimi i fałszywymi przekazami, głównie dotyczącymi wojny w Ukrainie.
Sieć „Pravda” źródłem w notatkach społeczności
Okazuje się, że strony wchodzące w skład „Pravdy” są chętnie cytowane w ramach notatek społeczności na portalu X. Tak zwane Community Notes to wpisy tworzone przez użytkowników platformy – stanowią one kontekst dla postów. Jeśli zostaną uznane za przydatne, pojawiają się pod danym wpisem.
Notatki społeczności mogą wydawać się w teorii dobrym rozwiązaniem. Praktyka pokazuje jednak, że można nimi łatwo manipulować i powoływać się przy ich pomocy na źródła o wątpliwej rzetelności.
Badacze DFR Lab i CheckFirst zweryfikowali 153 notatki społeczności odwołujące się do domen powiązanych z siecią „Pravda”. Były one najczęściej publikowane w językach angielskim i rosyjskim. Nie zabrakło również notatek po polsku, po hiszpańsku, po niemiecku czy po francusku.
Sprawdzane notatki pochodziły ze zbioru ponad 2 tys. wpisów na portalu X, które opublikowano od stycznia 2025 roku do 7 marca 2025 roku. Jeżeli weźmiemy pod uwagę, że Community Notes istnieją od trzech lat, to 153 notatki z odesłaniem do „Pravdy” opublikowane w ciągu trzech miesięcy pozwalają sądzić, że skala cytowania może być znacznie większa.
Rosyjska dezinformacja w Chacie GPT
Na źródła prowadzące do stron „Pravdy” można natknąć się w Wikipedii. W ramach śledztwa wykryto ponad 1,9 tys. linków na 1,6 tys. stron internetowych, które odsyłały do 162 stron związanych z „Pravdą”. Największą liczbę linków do proklemskowich domen można znaleźć w językach rosyjskim (992) i ukraińskim (580).
Zanieczyszczanie Wikipedii rosyjską propagandą niesie za sobą jeszcze jedno ryzyko. Ta otwarta i darmowa encyklopedia jest jednym z zestawów danych, na których uczą się duże modele językowe sztucznej inteligencji.
Badacze znaleźli twierdzenia pochodzące ze stron internetowych powiązanych z „Pravdą” w większości popularnych modeli, takich jak: ChatGPT, Copilot, Perplexity i Gemini. Dodatkowo zweryfikowano, czy chatboty ostrzegają swoich użytkowników przed tego typu treściami. Nic takiego nie miało miejsca.
Ponieważ liczba użytkowników tych narzędzi oraz średnia liczba interakcji nimi rosną, problem może być znacznie poważniejszy w przyszłości.
Czego uczy nas śledztwo DFR Lab?
Modele językowe nie tylko generują fikcyjne informacje, ale także korzystają z niepewnych źródeł, co pokazuje, że problem nie leży wyłącznie w halucynacjach AI, ale także w mechanizmach selekcji treści.
Przekaż nam 1,5% podatku!
Wesprzyj nas, przekazując 1,5% podatku na kontrolę polityków. Wpisz w PIT: KRS 0000615583
*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter