Strona główna Analizy Algorytmy nienawiści – czy platformy wzmacniają antysemityzm?

Algorytmy nienawiści – czy platformy wzmacniają antysemityzm?

Ekstremistyczne, antysemickie, nienawistne przekazy okazują się w pewnym stopniu wspierane przez algorytmy.

Algorytmy nienawiści – czy platformy wzmacniają antysemityzm?

Ekstremistyczne, antysemickie, nienawistne przekazy okazują się w pewnym stopniu wspierane przez algorytmy.

Kto jest odpowiedzialny za rozpowszechnianie antysemityzmu, ekstremistycznych treści i mowy nienawiści w sieci? Czy to, co widzimy w mediach społecznościowych, jest odbiciem rzeczywistości, czy też platformy zaostrzają i uwypuklają agresywne przekazy, które prezentują skrajne poglądy w sieci?

Takie pytanie zadali analitycy z Tech Transparency Project i Anti-Defamation League (ADL). Przeprowadzili oni dwa badania, które dotyczą możliwości wzmacniania antysemityzmu i ekstremizmu przez algorytmy platform oraz automatycznego generowania i uzupełniania treści nienawistnych przekazów.

Jak przebiegało badanie na temat algorytmów?

W pierwszym z badań sprawdzono, jak cztery platformy (Facebook, Instagram, Twitter/X i YouTube) traktowały użytkowników, którzy szukali treści związanych z poglądami antysemickimi i teoriami spiskowymi. Analitycy wykreowali sześć fikcyjnych „osób” (specjalnie utworzonych kont na każdej platformie) w różnym wieku i różnej płci. Były to po dwie kobiety, dwóch mężczyzn oraz dwa konta nastolatków (bez podania płci użytkownika) we wspomnianych mediach społecznościowych (s. 6).

Tak stworzeni „internauci” przeglądali platformy pod kątem pojęć związanych z teoriami spiskowymi i ze znanymi osobami, które je powielają i komentują (lista szukanych fraz: s. 25). Następnie przyjrzano się treściom, które algorytmy platform rekomendowały tym hipotetycznym użytkownikom. Połowa kont angażowała się w proponowane treści, pozostała część – nie. Dane były zbierane przez 30 dni.

Sugestie Instagrama – co rekomenduje platforma?

Badacze ustalili, że Instagram polecał antysemickie treści każdemu z sześciu profili. Wśród sugestii dla kont założonych jako osoby dorosłe znalazło się m.in. konto @lukewearechange, gdzie można znaleźć antysemickie memy (s. 12-13). Wśród nich opublikowano np. obrazek nawiązujący do teorii spiskowej dotyczącej rodziny Rothschildów, opierającej się na stereotypach o żydowskiej władzy nad światem.

 

 

Wyświetl ten post na Instagramie

 

Post udostępniony przez Luke Rudkowski (@lukewearechange)

badaniu zidentyfikowano też inny problem na Instagramie – związany z wyszukiwarką. Okazuje się, że platforma rekomenduje profile o ekstremistycznym charakterze, gdy użytkownik próbuje wyszukać treść niezwiązaną z mową nienawiści (s. 14).

Przykładowo: po wpisaniu w wyszukiwarkę Instagrama hasła „Światowe Forum Ekonomiczne” jedno z pierwszych wyświetlanych kont to worldevilforum (s. 14). Profil ten przedstawia się jako satyryczny, ale ilustracje, które publikuje, promują teorie spiskowe na temat Światowego Forum Ekonomicznego, pandemii COVID-19 czy zmuszania ludzi do jedzenia robaków.

Chciwość Żydów, władza nad światem – co Instagram rekomenduje nastolatkom?

Jak się okazało, najbardziej drastyczne przykłady mowy nienawiści znalazły się w rekomendacjach przewidzianych dla kont założonych jako młodzież (14 lat). Kilkunastokrotnie Instagram sugerował temu kontu do zaobserwowania profil o nazwie @kek_priest333. Udostępniono z niego m.in. film przedstawiający biegnącą grupę Żydów, wraz z podpisem „ktoś upuścił grosz”, nawiązującym do antysemickiej narracji o chciwości Żydów (s. 11).

 

 

Wyświetl ten post na Instagramie

 

Post udostępniony przez Mat (@kek_priest333)

Inny profil sugerowany nastolatkowi przez Instagram to ten o nazwie @rabbi_foreskin_smuggler (konto nie jest obecnie dostępne), którego zdjęcie profilowe przedstawia Marka Zuckerberga z długą brodą. Poniżej czytamy: „NICE JEWISH QUEER” (z ang. „MIŁY ŻYDOWSKI QUEER”). Konto to, jak podkreślają analitycy, było „pełne antyżydowskich treści”. Znalazły się tam m.in. wpisy zawierające frazę „We Own It All” (z ang. „Jesteśmy właścicielami tego wszystkiego”), która stanowi odniesienie do antysemickiej teorii spiskowej, zgodnie z którą Żydzi sprawują władzę nad światem (s. 10).

Jeszcze inne konto rekomendowane przez Instagram to @just_use_zyklon (również nie jest już dostępne). Jego nazwa nawiązuje do cyklonu B – trującego gazu używanego przez nazistów w obozach koncentracyjnych (s. 10). Wśród rekomendacji przewidzianych dla nastolatka znalazł się również profil @catholicschizo4, który opisuje siebie jako „łowcę imigrantów” i „ekstremistę”. Z profilu udostępniono m.in. cytat Josepha Goebbelsa, w którym nazywa on „żydostwo” „wcieleniem nienawiści” i „kłamstwem, które stało się ciałem”. Instagram nastolatkowi sugerował to konto dziesięć razy (s. 11).

Wielkość próby badawczej jest zbyt mała, by jednoznacznie określić, czy algorytm Instagrama traktuje treści przeznaczone dla młodzieży w ekstremalny sposób. Rodzą się jednak pytania o tę różnicę – część kont założonych jako osoby dorosłe również angażowały się w sugerowane treści, a mimo to kolejne rekomendacje nie były tak nienawistne, jak te skierowane do nastolatków. Jako możliwy powód bardziej radykalnych treści wyświetlanych młodemu użytkownikowi badacze wskazują konkurencję Instagrama z TikTokiem w tej grupie wiekowej (s. 12).

Algorytm Facebooka – jakie spiskowe treści podpowiada?

badaniu, w przypadku Facebooka, wszystkim sześciu testowym kontom – niezależnie od wieku – polecane były nienawistne treści (s. 18). Co ważne:

„Facebook często nakierowywał te osoby na antysemickie strony już podczas początkowego procesu konfiguracji ich kont. Miało to miejsce w momencie, gdy osoby wprowadzały terminy początkowe w wyszukiwarce na Facebooku i podążały za pierwszymi wynikami wyszukiwania, które się pojawiały”.

Jak podkreślają analitycy, większość antysemickich treści na Facebooku zidentyfikowano właśnie na tym etapie (s. 18). Przykład? Po wpisaniu w wyszukiwarkę hasła „Rockefellerowie” jako pierwszy wynik platforma wskazywała stronę o nazwie The Rockefellers and the Rothschilds are evil (12 tys. obserwujących). Na fanpage’u znajdziemy antysemickie posty, np. ten poniższy o rzekomym poszukiwaniu wskazanych osób (m.in. Davida Rockefellera, Henry’ego Kissingera, Evelyna de Rothschilda) z powodu „zbrodni przeciwko ludzkości”.

Co ciekawe, strona Rockefeller Center w Nowym Jorku (659 tys. obserwujących) nie pojawiła się wśród pierwszych wyników wyszukiwania po wpisaniu wspomnianej frazy – mimo że jest to oficjalna strona na Facebooku tego kompleksu budynków

Szukasz wiarygodnych informacji? Algorytm przewiduje nie tylko te

Innym obrazowym przykładem w badaniu były wyniki wyszukiwania frazy „Światowe Forum Ekonomiczne”. Wśród trzech pierwszych rezultatów (s. 19) Facebook wyświetlił wszystkim testowym kontom stronę „Wake Up News”. Ta strona publikuje m.in. wpisy promujące twierdzenia Richarda Gage’a, znanego jako propagator teorii spiskowych dotyczących zamachów z 11 września 2001 roku.

Z tego fanpage’a udostępniono m.in. film (nagranie nie jest już dostępne), który przedstawiał samolot lecący w stronę World Trade Center z informacją na temat rzekomego udziału rodziny Rothschildów w zamachu (s. 19).

„Maszyna nienawiści Twittera”

Wśród sugerowanych przez Twitter/X treści badacze zidentyfikowali szereg przepełnionych nienawiścią, antysemickich przekazów (s. 21). Kontom założonym jako dorosłe osoby platforma rekomendowała m.in. konto @ikennect. Z profilu tego opublikowano np. grafikę przedstawiającą George’a Sorosa w zbiorze „przestępców” z nazistowską flagą w tle (s. 22).

Innym profilem proponowanym przez Twitter/X – także nastolatkom – był ten o nazwie @HeavenScent88. Konto ostrzegało przed planami utworzenia jednego światowego rządu, co wpisuje się w narracje znane z teorii spiskowych o tzw. Nowym Porządku Świata (s. 22). Jak wskazują badacze, „88” w nazwie profilu może być związana z sympatią do nazistów z uwagi na to, że liczba ta bywa używana jako kod numeryczny dla wyrażenia „Heil Hitler” (H to ósma litera alfabetu).

Antysemickie teorie spiskowe dotyczące pandemii – czyli co Twitter/X proponuje użytkownikom

Kolejnym kontem proponowanym przez Twitter/X było @Ttss0834White, na którym znalazły się wpisy nawiązujące do teorii spiskowych łączących Żydów z wywołaniem pandemii COVID-19.

Konto opublikowało też tweeta o rzekomych planach kolejnej „plandemii”. Według teorii o „plandemii” pandemia COVID-19 była akcją zaplanowaną i przeprowadzoną przez grupy ludzi rządzących światem. Celem miała być depopulacja ludzkości lub przejęcie nad nią władzy i wprowadzenie tyranii. 

YouTube wyłamuje się ze schematu nienawistnych poleceń

Badacze założyli konta na YouTubie w ten sam sposób jak na pozostałych platformach i operowali tymi samymi pojęciami co w przypadku pozostałych mediów społecznościowych. YouTube okazał się jedynym spośród sprawdzanych portali, który testowym kontom nie polecał antysemickich treści (s. 23).

Wśród filmów polecanych przez platformę dla konta nastolatka znalazły się m.in.:

  • film przedstawiający postacie z gry Warhammer 40 000 (słowo kluczowe: Warhammer 40K),
  • satyryczna bitwa rapowa pomiędzy Steve’em Jobsem i Billem Gatesem (słowo kluczowe: Bill Gates),
  • stworzona przez fanów wersja piosenki „False Flag” Eminema i Linkin Park (słowo kluczowe: False Flag).

Z kolei w poleceniach dla kont założonych jako osoby dorosłe znalazł się teledysk do piosenki „E.T.” Katy Perry oraz „FourFiveSeconds” Rihanny, Kanyego Westa i Paula McCartneya (s. 23). W filmach tych pojawił się Kanye West (jedno z haseł kluczowych), jednak nie mają one antysemickiego nienawistnego charakteru.

Nie oznacza to jednak, że w zakresie polecanych treści algorytmy YouTube’a działają bez zarzutu. W jednej z naszych wcześniejszych analiz opisywaliśmy inne badanie, które dowiodło, że platforma ta rekomenduje kontom dzieci filmy przedstawiające używanie broni, instrukcje, jak ją modyfikować, sceny przemocy oraz strzelaniny, w tym te mające miejsce w szkołach.

130 grup szerzących nienawiść – jak wyglądało drugie badanie?

Do przeprowadzenia drugiego z badań wspomnianych na wstępie analitycy sporządzili listę 130 grup i ruchów szerzących mowę nienawiści. Wybrali hasła dotyczące przede wszystkim białej supremacji i antysemityzmu. Następnie wpisali każde ze słów kluczowych do wyszukiwarek na platformach. Badaniem objęto Facebooka, Instagrama, YouTube’a oraz Google’a.

Nienawistne treści podpowiadane przez wyszukiwarkę? Jak radzą sobie Facebook i Instagram?

W przypadku Facebooka analitycy zaobserwowali, że spośród 130 zidentyfikowanych grup i ruchów (pełną listę znajdziesz na s. 29-30) 51 było obecnych na tej platformie – w postaci stron lub grup zrzeszających ich sympatyków (s. 8). Przykłady stron, które w trakcie badania były dostępne na Facebooku, to chociażby: America Front for Fascism czy National Socialist Legion.

W 2019 roku Facebook zapowiedział działanie mające zmniejszyć rozpowszechnianie mowy nienawiści w tym medium społecznościowym. „Zaczniemy (…) udostępniać osobom wyszukującym hasła związane z białą supremacją zasoby pomagające w opuszczeniu grup nienawiści. Osoby szukające tych terminów zostaną przekierowane do Life After Hate, organizacji założonej przez byłych brutalnych ekstremistów, która zapewnia interwencję kryzysową, edukację, grupy wsparcia i pomoc” – informowała platforma.

Badanie wykazało jednak, że spośród 130 wyszukiwań etykieta ostrzegawcza lub wspomniane przekierowanie na stronę Life After Hate nastąpiło 20 razy. Z analizy wynika również, że w niektórych przypadkach funkcja przewidywania wyszukiwania na Facebooku automatycznie sugeruje hasła związane z nienawiścią (s. 10).

Na Instagramie można było znaleźć 69 grup lub ruchów z listy stworzonej przez badaczy (s. 12). Jeśli zaś mowa o podpowiadaniu wyszukiwanych haseł, w niektórych przypadkach Instagram automatycznie wypełniał wyniki wyszukiwania kont i hashtagów powiązanych z grupami nienawiści i ich zwolennikami (s. 14).

Platforma ta była jedyną spośród badanych, która automatycznie uzupełniała rezultaty w przypadku ponad połowy ze 130 wprowadzonych wyszukiwań. Żadne ze 130 wyszukiwań grup szerzących nienawiść na Instagramie nie wygenerowało ostrzeżenia ani powiadomienia o przekierowaniu do strony Life After Hate.

YouTube sam tworzy kanały twórców rozpowszechniających nienawistne treści

badaniu okazało się, że na YouTubie można było znaleźć 42 ze 130 szukanych grup i ruchów szerzących nienawistne treści. Część z nich dysponowała więcej niż jednym kanałem na platformie, co w sumie dało 87 kanałów powiązanych ze zidentyfikowanymi grupami (s. 15).

YouTube również oferuje podpowiedzi wyszukiwanych haseł. Badanie wykazało, że funkcja przewidywania na tej platformie sugeruje wyszukiwanie dla 36 ze 130 grup i ruchów szerzących mowę nienawiści. Przykładowo: gdy wpiszemy w pasek wyszukiwania zaledwie kilka początkowych liter frazy „Ku Klux Klan”, pojawia się całość hasła (s. 18).

YouTube sam generuje playlisty stworzone z utworów różnych wykonawców, tworzy swego rodzaju kanały tematyczne dla artystów, jeśli mają oni „znaczącą obecność” na platformie. YouTube utworzył taki kanał m.in. dla zespołu Satanic Warmaster (s. 19) powiązanego z narodowosocjalistycznym black metalem lub ruchem białej supremacji. Innym zespołem, dla którego YouTube automatycznie utworzył kanał, był Wiking 1940 (s. 20). Wśród utworów grupy znajduje się piosenka „Sonnenrad”, która zawiera antysemicki tekst, a rozpoczyna się fragmentem przemówienia Adolfa Hitlera. Nie są to odosobnione przypadki kanałów utworzonych przez YouTube’a i zawierających tego rodzaju treści (s. 19-22).

Panele wiedzy Google – nie zawsze wiarygodne źródło informacji

Badacze – przyglądając się Google’owi – mieli świadomość, że jest to odmienna platforma niż pozostałe (wyszukiwarka, nie – medium społecznościowe). Mając to na uwadze, zidentyfikowali problemy związane z automatycznym tworzeniem przez Google treści powiązanych z grupami rozpowszechniającymi nienawiść (s. 23).

Mowa o tzw. panelach wiedzy dostępnych na platformie, które są wyświetlane obok wyników wyszukiwania. Są one generowane automatycznie przez Google na podstawie informacji z sieci i mają za zadanie pomóc w uzyskaniu szybkiego podglądu wiadomości.

Problem w tym, że źródła, z których czerpana jest wiedza do takich paneli, nie zawsze są godne zaufania. Jak zauważyli badacze, spośród 130 wyszukiwań grup i ruchów rozpowszechniających nienawistne treści w przypadku 52 doszło do wygenerowania paneli wiedzy (s. 23).

„Przegląd tych paneli wiedzy wykazał, że w 11 przypadkach panele zawierały bezpośrednie linki do oficjalnych stron internetowych lub kont w mediach społecznościowych grup szerzących nienawiść, co zapewniło im dużą widoczność”.

Podsumowanie – nienawiść na platformach można znaleźć łatwo

Wyniki pierwszego badania pokazują, że trzy spośród czterech sprawdzanych platform sugerowały użytkownikom treści antysemickie i ekstremistyczne i kierowały ich w stronę przekazy przepełnione nienawiścią oraz dezinformacji na temat Żydów. Im bardziej osoby angażowały się w rekomendacje platform (np. polubienie sugerowanych stron, śledzenie polecanych kont), tym więcej nienawistnych treści pojawiało się przed ich oczami (s. 6). Z kolei z drugiego badania wynika, że wyszukiwarki platform „ułatwiły i przyspieszyły znajdowanie antysemickich treści i reagowanie na nie” (s. 6). 

Od września 2019 roku jesteśmy członkiem Programu niezależnej weryfikacji treści firmy Meta, w ramach którego weryfikujemy nieprawdziwe treści (artykuły, zdjęcia, filmy) w celu ograniczenia rozprzestrzenianie się fake newsów w mediach społecznościowych. Jesteśmy w pełni niezależni. Wyłączna odpowiedzialność merytoryczna za publikowane przez nas analizy spoczywa na zespole redakcji portalu demagog.org.pl.

*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter

Pomóż nam sprawdzać, czy politycy mówią prawdę.

Nie moglibyśmy kontrolować polityków, gdyby nie Twoje wsparcie.

Wpłać

Dowiedz się, jak radzić sobie z dezinformacją w sieci

Poznaj przydatne narzędzia na naszej platformie edukacyjnej

Sprawdź!