Strona główna Analizy Czy sztuczna inteligencja może napędzać dezinformację?

Czy sztuczna inteligencja może napędzać dezinformację?

We wrześniu 2021 roku Koalicja na rzecz walki z oszustwami cyfrowymi (Coalition to Fight Digital Deception) opublikowała raportTrained for Deception: How Artificial Intelligence FuelsOnline Disinformation”. Zdaniem autorów nadmierne poleganie na zautomatyzowanych narzędziach moderacji treści w mediach społecznościowych może doprowadzić do rozpowszechniania treści o znamionach dezinformacyjnych.

Czy sztuczna inteligencja może napędzać dezinformację?

We wrześniu 2021 roku Koalicja na rzecz walki z oszustwami cyfrowymi (Coalition to Fight Digital Deception) opublikowała raportTrained for Deception: How Artificial Intelligence FuelsOnline Disinformation”. Zdaniem autorów nadmierne poleganie na zautomatyzowanych narzędziach moderacji treści w mediach społecznościowych może doprowadzić do rozpowszechniania treści o znamionach dezinformacyjnych.

Sztuczna inteligencja a media społecznościowe

Sztuczna inteligencja (Artificial Intelligence, AI) może być rozumiana jako maszyny, które przewidują, automatyzują i optymalizują zadania w sposób, który naśladuje ludzką inteligencję, natomiast algorytmy uczenia maszynowego (Machine Learning, ML), jako podzbiór AI, wykorzystujący statystykę do identyfikacji wzorców w danych. Obecnie platformy internetowe wykorzystują narzędzia AI i ML do moderowania i klasyfikowania treści, które widzimy w sieci.

Wiele z tych narzędzi zaprojektowanych jest w celu maksymalizowania trafności prezentowanych treści, a także wzmożonej aktywności wśród użytkowników. Platformy społeczne twierdzą, że przez dostarczanie spersonalizowanych treści użytkownikom podnoszą jakość ich doświadczeń. Z drugiej strony działanie te mogą również wzmacniać szkody w życiu wirtualnym i realnym, ponieważ wiele rodzajów szkodliwych treści, w tym mowa nienawiści i przemoc, osiągają wysokie zasięgi i dużą aktywność.

Jedno z przeprowadzonych badań wykazało, że algorytmy, które są wykorzystywane do napędzania procesu dystrybucji reklam, mogą dostarczać reklamy do segmentu odbiorców, który różni się od grupy docelowej nakreślonej przez reklamodawcę.

Na przykład algorytmy dostarczające reklamy mogą przesyłać ogłoszenia o pracę w zawodach tradycyjnie zdominowanych przez mężczyzn, takich jak lekarze lub inżynierowie, tylko do mężczyzn poszukujących pracy. W rezultacie kobiety mogą zostać wykluczone z możliwości zapoznania się z ofertami mimo posiadania odpowiednich kwalifikacji. Dzieje się tak, ponieważ algorytm dostarczania ogłoszeń opiera swoją strategię optymalizacji na danych o danym użytkowniku w połączeniu z aktualnymi i historycznymi danymi na temat osób poszukujących pracy, co może prowadzić do dyskryminacji w danej profesji ze względu na płeć. 

Platformy internetowe stosują również różne rodzaje systemów rekomendacji. Należą do nich:

  • systemy oparte na treści, które sugerują użytkownikowi pozycje podobne do tych, którymi wcześniej się interesował, 
  • systemy kolaboracyjne, które sugerują użytkownikowi pozycje na podstawie oceny zainteresowań i zachowań użytkowników, którzy mają podobne zainteresowania,
  • systemy oparte na wiedzy, które sugerują użytkownikowi pozycje na podstawie jego zamiłowań i charakterystycznych cech.

Walka z dezinformacją

Podczas gdy systemy rankingowe i rekomendacyjne mogą dostarczać użytkownikom odpowiednie treści, tak wiele z tych systemów jest zaprojektowanych w celu optymalizacji pod kątem zaangażowania i aktywności w mediach społecznościowych, co wiąże się z tym, że szkodliwe treści mogą również ulec wzmocnieniu. W związku z tym wiele platform zaczęło stosować techniki rankingu algorytmicznego, aby ograniczyć rozprzestrzenianie się treści wprowadzających w błąd.

Na przykład, gdy fałszywa treść na Facebooku jest zweryfikowana i obalona przez jednego z partnerów w ramach współpracy fact-checkingowej, post dostaje etykietę ostrzegawczą, a algorytm ogranicza zasięgi jego rozpowszechnianie w kanałach informacyjnych użytkowników (downranking). Jednak metody takie jak downranking nadal umożliwiają wprowadzanie szkodliwych wiadomości, co oznacza, że użytkownicy nadal mogą mieć do nich dostęp i możliwość ich udostępniania. 

Według wyników badań z 2018 roku, opublikowanych w czasopiśmie „Science”, fałszywe informacje miały o 70 proc. większe szanse na ich udostępnienie (retweet) niż wiadomości prawdziwe, więc sam algorytmiczny downranking może nie być wystarczający do powstrzymania rozprzestrzeniania szkodliwych i wprowadzających w błąd informacji.

Obecnie większość firm z branży mediów społecznościowych angażuje się w moderowanie treści w postaci ich tagowania, przeglądania i czytania. Firmy polegają na połączeniu sił ludzkich moderatorów oraz narzędzi opartych na AI. Giganci technologiczni (Big Tech) zazwyczaj wdrażają narzędzia oparte na AI i ML na dwóch etapach procesu moderacji: premoderacji i postmoderacji. 

Podczas etapu wstępnego sprawdzane jest, czy użytkownik napisał post zawierający błędne informacje. Jeśli tak, to narzędzia mogłyby oznaczyć treść jako naruszenie i uniemożliwić użytkownikowi jego opublikowanie. Takie podejście najlepiej sprawdza się, gdy kategorie treści są jasno zdefiniowane, dlatego że zautomatyzowane narzędzia często nie są w stanie dokładnie ocenić kontekstu.

Na etapie postmoderacji moderowana jest już opublikowana treść. Na przykład, jeśli użytkownik udostępnił wpis zawierający błędne informacje, a inny użytkownik lub zautomatyzowane narzędzie oflagowały go jako potencjalne naruszenie polityki platformy, treść mogłaby zostać skierowana do sprawdzenia przez ludzkiego moderatora lub automatycznie usunięta.

Wykorzystanie AI i narzędzi opartych na ML do identyfikacji i usuwania dezinformacji w sieci ma pewne zalety. Najbardziej oczywistą korzyścią są oszczędności, ponieważ pozwala to na przeniesienie pracy związanej z moderowaniem treści z ludzi na systemy zautomatyzowane.

Jeśli jednak w projektowaniu narzędzi opartych na sztucznej inteligencji uwzględnione zostaną uprzedzenia lub treści stronnicze, może prowadzić to do wzmocnienia szkodliwych treści. Zautomatyzowane systemy uczą się podejmować decyzje na podstawie danych szkoleniowych, a te z kolei są często reprezentatywne dla społecznych i instytucjonalnych nierówności, zatem mogą mieć wpływ na ludzkie uprzedzenia.

Limity zautomatyzowanych narzędzi do moderowania treści były szczególnie widoczne w następstwie pandemii COVID-19. W marcu 2020 roku wiele firm nie było w stanie wykorzystać swoich ludzkich moderatorów z racji wymogów dotyczących pracy z domu. Wiele platform skupiło się na wykorzystywaniu narzędzi opartych na AI i ML. W rezultacie więcej treści zostało zakwalifikowanych i usuniętych niż przed pandemią, w tym posty zawierające prawdziwe wiadomości na tematy zdrowia publicznego, które zostały błędnie zakwalifikowane jako spam. Równocześnie wiele postów zawierających dezinformację przeszły przez automatyzowane filtry i nadal krążyły w sieci.

Biorąc pod uwagę ograniczenia narzędzi do moderacji treści opartych na AI i ML, najlepszą formą kontroli treści online jest połączenie automatów i oceny ludzkiego operatora. Zmniejszony nadzór ze strony człowieka zwiększa ryzyko błędów, co może skutkować wzmocnieniem treści o znamionach dezinformacyjnych.

Artykuł powstał w ramach projektu „Fakty w debacie publicznej”, realizowanego z dotacji programu „Aktywni Obywatele – Fundusz Krajowy”, finansowanego z Funduszy EOG.

*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter

Pomóż nam sprawdzać, czy politycy mówią prawdę.

Nie moglibyśmy kontrolować polityków, gdyby nie Twoje wsparcie.

Wpłać

Dowiedz się, jak radzić sobie z dezinformacją w sieci

Poznaj przydatne narzędzia na naszej platformie edukacyjnej

Sprawdź!