Czas czytania: około min.

Walka z dezinformacją przez platformy nie tak skuteczna, jak powinna?

24.09.2021 godz. 12:29

Nowy raport opublikowany przez DCU FuJo i Broadcasting Authority of Ireland dotyczy tego, w jaki sposób platformy cyfrowe wdrożyły unijny program monitorowania dezinformacji na temat COVID-19. Autorzy odkryli, że raporty przesyłane przez platformy były bardzo powtarzalne, często zawierały nieistotne informacje i w większości nie dostarczały żądanych danych. Wniosek? Należy opracować solidniejsze procedury zgłaszania i monitorowania fałszywych i zmanipulowanych treści w internecie, aby kodeks postępowania UE w zakresie dezinformacji stał się skuteczniejszym narzędziem w walce z dezinformacją.

Raport „CovidCheck” z września 2021 roku to już trzecia publikacja skupiająca się na zmianach wprowadzonych przez największe media społecznościowe i firmy IT, stworzona przez organizacje BAI i CDU FuJo. Każdy z wydanych dotąd raportów jest częścią prac Europejskiej Grupy Regulatorów Audiowizualnych Usług Medialnych (ERGA) na polecenie Komisji Europejskiej.

KE zleciła stworzenie raportu w celu oceny działania Kodeksu praktyk wprowadzonego w 2018 roku. Kodeks ten określa zasady i zobowiązania platform internetowych oraz sektora reklamowego do przeciwdziałania rozpowszechnianiu się dezinformacji w UE. W zamyśle miał być to pierwszy na świecie samoregulacyjny instrument do walki z dezinformacją.

W raporcie znajdziemy informacje na temat jakościowych i ilościowych zmian dokonywanych w swoich serwisach przez firmy takie jak Google, Facebook, Microsoft, Mozilla, TikTok oraz Twitter. 

Platformy starają się wprowadzać zmiany na lepsze, ale nadal jest ich za mało

Od sierpnia 2020 do kwietnia 2021 roku wspomniane organizacje zaraportowały (w 47 raportach) 1 114 działań przeprowadzonych w celu zmniejszenia rozprzestrzeniania się fałszywych informacji na temat pandemii COVID-19. Najwięcej zmian i nowych funkcji zgłosiła firma Google (387 zmian), natomiast najmniej TikTok – 87 zmian.

Twórcy raportu zwracają jednak uwagę na fakt, że liczba zaraportowanych działań nie musi przekładać się na ograniczenie rozprzestrzeniania się dezinformacji. Wiele zmian nie odnosiło się bowiem bezpośrednio problemu dezinformacji wokół pandemii, a także nie dotyczyło terenu Unii Europejskiej (około 40 proc. zmian nie zawierało bowiem jasnych przesłanek co do ich oddziaływania na terenie UE).

Poważnym problemem okazało się także raportowanie rozwiązań już zakomunikowanych w poprzednich raportach. Jedynie 32 proc. zmian wprowadzanych przez te firmy stanowiły nowe procedury i modyfikacje obowiązujących zasad. Najgorzej pod tym względem wypadł Google, w przypadku którego nowe rozwiązania stanowiły jedynie 12 proc. zmian, natomiast najlepiej Facebook – ponad 58 proc. przedstawionych przez tę firmę rozwiązań pojawiło się w raporcie po raz pierwszy.

Najczęściej wprowadzanymi zmianami było sugerowanie użytkownikom odnośników do stron organizacji międzynarodowych promujących sprawdzoną wiedzę naukową na temat pandemii. Kolejnym segmentem, który podlegał częstym ulepszeniom, były reklamy oraz mechanizmy blokowania i usuwania niepożądanych treści. Ponad jedna czwarta zmian raportowanych przez firmy została dokonana we współpracy z organizacjami międzynarodowymi (najczęściej na taką współpracę wskazywał TikTok, który zaangażował firmy i organizacje zewnętrzne w prace nad 48 proc. modyfikacji).

Potrzeba więcej informacji na temat działalności platform

Kolejnym problemem okazała się także analiza rezultatów wprowadzonych zmian. Jedynie do 32 proc. wprowadzonych wcześniej nowych rozwiązań załączono informację o ostatecznym wpływie tej zmiany na rozpowszechnianie się dezinformacji. Najlepiej w tej dziedzinie zaprezentowała się Mozilla – ponad dwie trzecie zaraportowanych przez nią działań posiadało informację o jego efektach – a najgorzej Google, Microsoft i Twitter, z mniej niż 33 proc. zmian o udokumentowanym wpływie na szerzenie się fake newsów wśród użytkowników.

Autorzy zwracają jednak uwagę na niewystarczającą szczegółowość prezentowanych przez platformy informacji na temat wpływu wprowadzanych zmian, co nie pozwala na realną analizę i zasugerowanie rekomendacji dla innych organizacji działających na terenie UE.

Raport przedstawia również studium przypadku Facebooka przeprowadzone przez Instytut Strategii Dialogu, czyli organizację pozarządową zajmującą się m.in. analizami fake newsów. Analitycy sprawdzili, jak Facebook ogranicza problem powstających od początku pandemii grup propagujących dezinformacje na temat COVID-19. Według uzyskanych danych istotną trudnością jest brak wyświetlania się przy sprawdzonych przez analityków fake newsach informacji i wyjaśnień.

Eksperci wskazywali także na częsty brak przekierowania do autoryzowanych danych na temat COVID-19 i szczepień przy postach zawierających słowa kluczowe. Publikowane grafiki i niezweryfikowane strony zawierające dezinformacje również stanowią problem dla algorytmów platformy, ponieważ często aż do momentu zgłoszenia nie są rozpatrywane jako treści szkodliwe.

Więcej spójności w działaniach

Autorzy wskazują także na niespójności we wdrażaniu programu niezależnej weryfikacji treści Facebooka. Zidentyfikowali oni 35 przypadków fałszywych twierdzeń, które zostały obalone przez fact-checkerów, ale same oznaczenia fake newsów nie zostały zastosowane. Z perspektywy użytkownika stosowanie zasad dotyczących weryfikacji treści powoduje niespójności, ponieważ te same twierdzenia są sprawdzane w pewnych okolicznościach, a w innych nie.

Część raportu została poświęcona także analizie możliwej poprawy stanu weryfikacji informacji publikowanej w serwisie TikTok. Raport wskazuje na popularność hasztagów „COVID19”, „vaccine” oraz „vaxx”, co ułatwia weryfikację informacji zawartych w filmach przy użyciu szukania po słowach kluczowych. Problem stanowią jednak dezinformujące filmy z szybko rosnącą oglądalnością, które nie zawierają kluczowych oznaczeń. Na 16 najpopularniejszych filmów o tematyce pandemicznej jedynie 9 z nich było oznaczonych w sposób umożliwiający TikTokowi podjęcie szczególnej weryfikacji zawartości, co pozwala na usunięcie lub zablokowanie filmów niespełniających warunków jakościowych.

Analitycy wskazują także, że mniejsza dostępność takich filmów z powodu nieużywania popularnych hasztagów jest rekompensowana możliwością wyszukiwania ich przy użyciu charakterystycznych komentarzy widzów. Raport wskazuje także na niedostateczne radzenie sobie algorytmów TikToka z dezinformacją w językach innych niż angielski.

Rola fact-checkingu

Autorzy raportu dostrzegli również znaczenie weryfikacji faktów dla prawidłowego funkcjonowania platform i konieczność pogłębiania współpracy. Jak czytamy, podczas pandemii COVID-19 Facebook rozszerzył swój program sprawdzania faktów, a także oferował dotacje i szkolenia wspierające fact-checkerów. Portale fact-checkingowe, z którymi konsultowali się autorzy, wskazują, że ich zdaniem Facebook stał się bardziej proaktywny w swoim podejściu do sprawdzania faktów.

Granty, szkolenia i regularne spotkania sprawiły, że platforma stała się bardziej dostępna dla fact-checkerów, którzy zyskali więcej wglądu w użyteczność i skuteczność własnej pracy. Z drugiej jednak strony wskazywali oni, że do oceny i poprawy swojej działalności większą wartość miałyby szczegółowe informacje na temat efektów współpracy, a nie tylko przybliżone dane procentowe dotyczące interakcji użytkowników z ich materiałami.

Realizacja programu weryfikacji treści napotyka też inne trudności. Jedną z nich jest wykrywanie tej samej fałszywej informacji również w innych materiałach na platformie. Autorzy podają przykład filmu zawierającego fałszywe twierdzenia o ludziach umierających w wyniku szczepionek COVID-19, który został oznaczony przez fact-checkerów. Jednak w momencie, kiedy dokładnie ta sama treść została opublikowana w jednej z grup w formie tekstowej, oznaczenie o fałszywej treści nie zostało zastosowane.

Raport zwraca również uwagę, że oznaczenia nałożone przez portale fact-checkingowe są widoczne tylko wtedy, kiedy dany materiał jest udostępniany w formie posta. Nie widać ich natomiast, gdy dana treść jest umieszczana na platformie w ramach komentarza. Autorzy krytykują również to, że w ramach programu niezależnej weryfikacji treści Facebooka nie mogą być oznaczane treści rozpowszechniane przez polityków, których konta nierzadko stanowią źródło dezinformacji.

Wnioski i rekomendacje

W podsumowaniu raportu znalazła się lista rekomendacji i sugestii autorów, które mogłyby pomóc w zwiększeniu jakości raportowania wprowadzanych przez firmy zmian oraz ograniczenia rozprzestrzeniania się dezinformacji. Najistotniejszymi postulatami są:

  • standaryzacja raportów i definicji,
  • wprowadzenie rozwiązań pozwalających na ograniczenie rozprzestrzeniania dezinformacji w komentarzach,
  • stworzenie kampanii informacyjnych mających na celu uświadamianie użytkownikom zasadności oznaczania potencjalnych treści dezinformacyjnych, kar za nieprzestrzeganie regulaminu, a także znaczenia fact-checkingu.

Rekomendacje wskazują także na konieczność pełnego raportowania efektów wprowadzonych przez firmy zmian oraz istotność większego nacisku na rozwijanie systemów sztucznej inteligencji mogących ograniczyć rozprzestrzenianie się nieprawdziwych informacji na temat COVID-19 oraz szczepionek we wszystkich językach obowiązujących na terenie Unii Europejskiej.

 

Artykuł powstał w ramach projektu „Fakty w debacie publicznej”, realizowanego z dotacji programu „Aktywni Obywatele – Fundusz Krajowy”, finansowanego z Funduszy EOG.

*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter

Podobał Ci się artykuł? Pomóż nam dzielić się prawdą!

Możesz śmiało rozpowszechniać ten artykuł na swojej stronie internetowej. Pamiętaj o podaniu źródła. Sprawdź jak możesz udostępniać.

Wpłać darowiznę i działaj z nami!

lub