Strona główna Analizy Czy na sali jest moderator? Teorie spiskowe na YouTubie

Czy na sali jest moderator? Teorie spiskowe na YouTubie

W ostatnich latach YouTube wykonał kilka ruchów, aby ograniczyć propagowanie filmów na temat teorii spiskowych w swoim serwisie. Można byłoby założyć, że pożar ugaszono (albo przynajmniej uruchomiono gaśnicę), ale wtedy weszli badacze i zapytali: „A co z sekcją komentarzy?”.

Czy na sali jest moderator? Teorie spiskowe na YouTubie

Źródło: Canva / Modyfikacje: Demagog

Czy na sali jest moderator? Teorie spiskowe na YouTubie

W ostatnich latach YouTube wykonał kilka ruchów, aby ograniczyć propagowanie filmów na temat teorii spiskowych w swoim serwisie. Można byłoby założyć, że pożar ugaszono (albo przynajmniej uruchomiono gaśnicę), ale wtedy weszli badacze i zapytali: „A co z sekcją komentarzy?”.

26 października 2020 roku do Sądu Okręgowego Stanów Zjednoczonych dla Północnego Dystryktu Kalifornii wpłynęło zażalenie od kilku osób. Dotyczyło ono rzekomego pogwałcenia przez serwis YouTube pierwszej poprawki konstytucji zakazującej naruszania wolności m.in. słowa.

Na jakiej podstawie? Serwis zbanował treści, które szerzyły teorie spiskowe kojarzone z ruchem QAnon: tym samym, którego zwolennicy z charakterystycznym „Szamanem” na czele wdarli się do Kapitolu kilka miesięcy później, 6 stycznia 2021 roku.

Serwis podjął kroki, których celem jest ograniczenie zasięgów teorii spiskowych, ale okazuje się, że filmy to nie wszystko. Pod nimi jest jeszcze strefa komentarzy i właśnie im poświęcono badania przeprowadzone przez The University of Sydney oraz Queensland University of Technology.

Sprawdzono, jak YouTube radzi sobie z teoriami spiskowymi dotyczącymi jednej konkretnej postaci, która występuje w nich w roli szwarccharakteru: Billa Gatesa. Okazało się, że mimo dotychczasowych działań platformy w ograniczaniu podobnych treści, przekaz nadal się rozprzestrzenia.

Prawdziwa osoba, fikcyjny antagonista

W świecie teorii spiskowych Bill Gates (poza nim znany raczej jako współzałożyciel Microsoftu)  ma alternatywną personę, którą udało się odkryć „świadomym” i „myślącym” użytkownikom sieci. Biorąc pod uwagę mnogość rzeczy, za które jest przez nich oskarżany, doskonale zarządza czasem i jest niezwykle wszechstronny.

Stara się urzeczywistnić plan depopulacji i w tym celu tworzy, dystrybuuje i/lub popularyzuje śmiercionośne szczepionki czy 5G, rozwija geoinżynierię, aby zasłonić słońce oraz nanotechnologię, aby zniewolić ludzi. W międzyczasie wywołał pandemię COVID-19 i wojnę w Ukrainie, aby wprowadzić Nowy Porządek Świata. To tylko część dezinformujących narracji o nim, które przeanalizowaliśmy na łamach Demagoga.

Badacze mediów wybrali trzy filmy z kanałów Fox News, Vox i China Global Television Network, które dotyczyły COVID-19 i pojawił się w nich Bill Gates. Przyjrzeli się nie samym materiałom, ale 38 564 komentarzom pozostawionym przez widzów. Okazało się, że wiele z nich nawiązywało do wyżej wymienionych teorii spiskowych.

„Komentarze dotyczyły takich tematów, jak ukryty plan Billa Gatesa, jego rola w opracowywaniu i dystrybucji szczepionek, jego mowa ciała, jego powiązania ze skazanym przestępcą seksualnym Jeffreyem Epsteinem, szkody wyrządzone przez sieć 5G oraz pomysły dotyczące kontrolowania ludzi przez Gatesa za pomocą mikroczipów i »znaku bestii«”.

„Conspiracy theories thrive on YouTube, new study”, The University of Sydney

„Przypadek? Nie sądzę” jedną z najpopularniejszych strategii dezinformujących

Choć YouTube w czasie pandemii zmienił wytyczne dotyczące dozwolonych treści na platformie tak, aby nie rozsiewały dezinformacji na temat choroby, to badanie wykazało, że sekcja komentarzy pozostała „stosunkowo niemoderowana” i jest „w dużej mierze” zdominowana przez teorie spiskowe.

Do technik, których używano najczęściej, należały:

  • zasiewanie wątpliwości poprzez dyskredytowanie autorytetów (25 proc. komentarzy)
  • uwiarygadnianie teorii spiskowej przez tzw. łączenie kropek: wykazywanie, że wydarzenia nie są dziełem przypadku (23 proc. komentarzy),
  • wyrywanie cytatów z kontekstu (17 proc. komentarzy).

Co ważne, w serwisie istnieje coś takiego, jak pojęcie „treści z pogranicza”, które jednoznacznie nie przekraczają jego zasad. Oznacza to, że możliwe jest stworzenie tekstu, który będzie dotyczył teorii spiskowych, ale nie zostanie usunięty przez moderatorów. Jak wykazują autorzy badania, do „treści z pogranicza” należą np. komunikaty zasiewające wątpliwości co do powodów, dla których Bill Gates zajmuje się szczepionkami.

Właśnie z powodu „treści z pogranicza” autorzy omawianego badania stwierdzili, że automatyzacja działań w tym zakresie nie wystarczy. Sugerują, aby YouTube przyjrzał się najpopularniejszym strategiom teoretyków spiskowych oraz treściom, które umkną zautomatyzowanej moderacji i na tej podstawie przygotować rozwiązania.

Proponują np. narzędzie, które umożliwi moderację komentarzy samym użytkownikom serwisu. Innym zaproponowanym rozwiązaniem jest wyłącznie komentarzy pod filmami ważnymi dla opinii publicznej, aby nie były one nośnikiem dezinformacji. 

„…z takim samym naciskiem i rygorem”

Analiza ponad 38 tys. komentarzy pod trzema tylko filmami na YouTubie sugeruje, że problem rozprzestrzeniania się teorii spiskowych na tej platformie nie został jeszcze rozwiązany. Oczywiście, same filmy nadal są kwestią problematyczną na wielu poziomach. Dla przykładu, badania Center for Cybersecurity wykazały, że przy materiałach tego typu pojawiają się potencjalnie drapieżne reklamy: scamy czy promocja wątpliwych w działaniu suplementów. Nie należy jednak zapominać o sekcji komentarzy.

Tymczasem krytyczne głosy ekspertów mówią o tym, że giganci mediów społecznościowych, którzy powinni pilnie zmierzyć się z problemem szerzącej się dezinformacji, wydają się być rozproszeni innymi rzeczami. Twitter – redukcją pracowników i zmianą kierownictwa. Meta – ekscytacją Metaverse

Podobnie jest z YouTubem. Z doniesień New York Times (przedruk dostępny na The Seattle Times) wiemy, że zespół ekspertów YouTube zajmujący się dezinformacją ostatnio zmniejszył się z pięciu do trzech osób. Zwolnienia nastąpiły również w innych istotnych działach, np. zajmujących się mową nienawiści.

Jednocześnie rzeczniczka prasowa serwisu, Elena Hernandez zapewniła w oświadczeniu, że: „Będziemy nadal wspierać zespoły, zautomatyzowane działania i zasady, które chronią społeczność YouTube. Będziemy kontynuować tę pracę i posuwać się naprzód z takim samym naciskiem i rygorem”. Pozostaje zacisnąć kciuki i życzyć powodzenia. Szczególnie tym kilku osobom, które będą odpowiedzialne za walkę z falą fałszywych treści.

Wspieraj niezależność!

Wpłać darowiznę i pomóż nam walczyć z dezinformacją, rosyjską propagandą i fake newsami.

*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter

Masz prawo do prawdy!

Przekaż 1,5% dla Demagoga

Wspieram

Dowiedz się, jak radzić sobie z dezinformacją w sieci

Poznaj przydatne narzędzia na naszej platformie edukacyjnej

Sprawdź!