Strona główna Analizy Książka Maksa Fishera „W trybach chaosu. Jak media społecznościowe przeprogramowały nasze umysły i nasz świat”

Książka Maksa Fishera „W trybach chaosu. Jak media społecznościowe przeprogramowały nasze umysły i nasz świat”

Prezentujemy książkę Maxa Fishera W trybach chaosu. Jak media społecznościowe przeprogramowały nasze umysły i nasz świat – Max Fisher

Fot. KristopherK / Pexels / Modyfikacje: Demagog

Książka Maksa Fishera „W trybach chaosu. Jak media społecznościowe przeprogramowały nasze umysły i nasz świat”

Prezentujemy fragment książki (strony: 175-195) Maksa Fishera „W trybach chaosu. Jak media społecznościowe przeprogramowały nasze umysły i nasz świat”, stanowiącej podsumowanie kilkuletniego śledztwa dziennikarskiego, dotyczącego dezinformacji i treści, z którymi spotykamy się w internecie.

Więcej o autorze, algorytmach i ich wpływie na świat realny, w tym politykę dowiesz się z naszego podcastu, gdzie rozmawialiśmy z Maksem Fisherem.  

To dopiero początek 

Na tydzień przed wyborami prezydenckimi w 2016 roku Renée DiResta – która właśnie przeniosła się z funduszu inwestycyjnego na stanowisko kierownicze w start-upie logistycznym i była wtedy w dziewiątym miesiącu ciąży – zauważyła na Facebooku coś, co ją zszokowało, choć widziała niejedno w trakcie wieloletnich obserwacji platformy. Zarekomendowano jej przyłączenie się do grup zorganizowanych wokół mrożącej krew w żyłach rewelacji: prominentni demokraci mieli w tajemnicy handlować dziećmi, które później były wykorzystywane seksualnie podczas rytuałów satanistycznych. DiResta mogła zlekceważyć te wspólnoty jako marginalne zjawiska w świecie cyfrowym i kolejne ogniwo w długim łańcuchu teorii spiskowych – badała je przecież drobiazgowo. Zdumiała ją jednak liczebność tych grup. Należały do nich dziesiątki, a nawet setki tysięcy osób. Niektóre posty udostępniono ponad sto tysięcy razy. Wtedy jeszcze nie zdawała sobie sprawy, że jest świadkiem narodzin cyfrowo wygenerowanego ruchu, który za cztery lata stanie się potężnym odłamem Partii Republikańskiej, zrzeszającym miliony wyznawców teorii spiskowej, zaangażowanych w kampanię przeciwko amerykańskiej demokracji. Początkowo jednak gromadzili się pod nazwą, którą trudno było potraktować poważnie: Pizzagate.

DiResta postanowiła dowiedzieć się o tym więcej, świadoma zagrożeń stwarzanych przez pozornie niedorzeczne facebookowe inicjatywy. Wyszukiwarka Google, na szczycie listy umieszczająca linki do YouTube’a – gęsi znoszącej złote jajka – poleciła jej serię filmików, z których większość przedstawiała tę teorię w pozytywnym świetle. Ich autorzy twierdzili, że policja przyłapała Anthony’ego Weinera, byłego kongresmena z Partii Demokratycznej, na wysyłaniu sprośnych wiadomości do piętnastolatki. Rzekomo zgromadzono też materiał świadczący o tym, że wraz z żoną, Humą Abedin, i małżonką swojego szefa, Hillary Clinton, stoją na czele grupy, która porywa nieletnich i zmusza ich do nierządu. Na dowód przywoływali maile Johna Podesty, szefa kampanii wyborczej Clinton, wykradzione przez rosyjskich hakerów i upublicznione przez WikiLeaks. Jak twierdzili zwolennicy tej teorii, wspomniana przez niego pizzeria Comet Ping Pong w Waszyngtonie była siedzibą ogromnej elitarnej szajki, która w trakcie rytuałów zjada dzieci.

Adam, wieloletni użytkownik 4chana, powiedział mi: „Wierzy w to połowa, a może więcej moich znajomych z sieci”. I dodał, że pewnego dnia teorię tę rozpowszechniano „wszędzie”, przede wszystkim na Facebooku. Niektóre profile, nieaktywne od lat, wznowiły działalność tylko po to, by powtarzać frazę: „Pizzagate dzieje się naprawdę”. Adam obserwował genezę tego ruchu na 4chanie na tablicy z informacjami politycznymi, która była inkubatorem patologicznych teorii spiskowych. 

Wiara w nie ściśle wiąże się z anomią, czyli poczuciem odseparowania od społeczeństwa, które wyrażały wspólnoty na 4chanie. Grupy te odcinały się od zewnętrznego świata, gardząc systemem w ich mniemaniu nastawionym zawsze przeciwko nim. Kultem otaczały Juliana Assange’a, twórcę WikiLeaks, hakera o anarchistycznych poglądach, który podobnie jak cały 4chan zdryfował w stronę alt-rightu. Gdy w październiku, na miesiąc przed wyborami, Assange ujawnił korespondencję Podesty, użytkownikom 4chana nie przyszło do głowy, że to operacja wspierana przez Rosjan. Posunięcie WikiLeaks uznali za początek chwalebnej kampanii, odsłaniającej prawdziwe oblicze znienawidzonych elit. Oddali się swej ulubionej rozrywce, angażując tłumy do przeszukiwania dziesiątków tysięcy stron w poszukiwaniu sensacji. W zamkniętych cyfrowych ekosystemach, gdzie użytkownicy sami kontrolują przepływ informacji, dowody na słuszność uprzedzeń wspólnoty pojawiają się same, tak jak wskaźnik na planszy ouija pokazuje zazwyczaj to słowo, o którym myślą wszyscy uczestnicy seansu. 

Gdy użytkownicy 4chana zauważyli, jak często Podesta, notabene kucharz amator, wspomina o jedzeniu, doszli do wniosku, że posługuje się jakimś tajnym kodem. Ktoś dowodził, że nazwa cheese pizza (pizza serowa) odnosi się do pornografii dziecięcej, na 4chanie oznaczanej skrótem c.p. (child pornography). Wkrótce znaleziono więcej wzmianek o pizzy i dzieciach. Choć Podesta pisał te maile przez dziesięć lat, to zgromadzone w jednym pliku wyglądały podejrzanie. Mętne teorie wkrótce zawędrowały na Reddita, gdzie trafiły na tablicę popularną wśród zwolenników Trumpa. Ktoś nawoływał w swoim poście, by rozpowszechniać informacje o „światowej szajce pedofilów powiązanej z FUNDACJĄ CLINTONÓW, która – tak się składa – zamierza na dobre przejąć władzę w USA”. 

Teoria ta dostała się na Facebook za pośrednictwem grup. Nawet na forach apolitycznych użytkownicy zamieszczali zrzuty ekranu z dyskusjami na 4chanie, w których w szczegółach omawiano ten spiskowy scenariusz. Opatrywano je pytaniem: „Czy to prawda?”. Szukając informacji na temat Comet Ping Pong, facebookowicze znaleźli na Instagramie profil właściciela lokalu. Niewinne zdjęcia – na przykład pokazujące dzieci podczas zabawy w restauracji i jej szyld ozdobiony gwiazdkami i księżycami oraz żartobliwe rysunki kawałków pizzy zakrywających genitalia – umieszczone w odpowiednim kontekście stawały się niezbitymi dowodami pedofilskiej zmowy. W ciągu kilku dni znani uczestnicy Gamergate i biali nacjonaliści rozpowszechnili te informacje na Twitterze, zamieszczając zrzuty ekranu z komentarzami z Facebooka i 4chana. Internautów, którzy podobnie jak DiResta chcieli dowiedzieć się więcej na ten temat, wyszukiwarka Google kierowała na YouTube’a, gdzie polecano im filmiki potwierdzające tę teorię spiskową. Jeżeli zasięgali informacji na Facebooku, trafiali do grup zorganizowanych wokół Pizzagate. Na podstawie tych postów strony z fake newsami, takie jak YourNewsWire, publikowały artykuły, które wracały na Facebook. Tamtejszy algorytm propagował je jako wiarygodne źródła wiadomości, wyczekiwanych przez wszystkich. Na tydzień przed wyborami w mediach społecznościowych dominowały wyniki sondaży, spoty wyborcze i Pizzagate.

„Ze zgrozą przyglądałem się rozwojowi sytuacji”, wspomina Adam. Jego znajomi z realu dzielili się na Facebooku memami o Pizzagate. Kruszył się mur oddzielający ekstremistów od głównego nurtu życia internetowego. Trudno było oprzeć się tej sile. Wprawdzie Adam dobrze wiedział, że te posty to „czysty nonsens”, ale pod ich wpływem zaczął „sam sprawdzać wszystkie rozpowszechniane w nich informacje”.

Miesiąc później czternaście procent zwolenników Trumpa wierzyło w prawdziwość stwierdzenia: „Hillary Clinton ma związek z handlem dziećmi, prowadzonym przez waszyngtońską pizzerię”. W innym sondażu zamieszczono jego złagodzoną wersję: „W ujawnionej korespondencji mailowej sztabu wyborczego Hillary Clinton jest mowa o pedofilii i handlu ludźmi”. Tym razem aż czterdzieści sześć procent zwolenników Trumpa zgodziło się z tym zdaniem. Wciąż jednak większość nie traktowała poważnie uczestników Pizzagate, uważając ich za internetowych świrów zrzeszonych pod idiotycznym szyldem. Nawet ci, którzy nie bagatelizowali sprawy, stracili nią zainteresowanie, gdy w dniu wyborów Trump zwyciężył w kilku stanach, gdzie prognozowano jego klęskę, i został głową państwa.

Przez kolejne miesiące samozwańczy stróże internetu, dziennikarze, komisje kongresowe i ustępujący z urzędu prezydent oskarżali media społecznościowe o szerzenie dezinformacji i stronniczych komunikatów, które utorowały Trumpowi drogę do Białego Domu. Platformy po krótkim okresie pokuty za pomniejsze grzechy, takie jak udostępnianie forów rosyjskim propagandystom i rozpowszechnianie fake newsów, w dużej mierze wyparły się winy. Jednak w kilka godzin po ogłoszeniu wyniku wyborów to właśnie szeregowi pracownicy Doliny Krzemowej jako pierwsi rzucili cień podejrzenia na media społecznościowe. Podczas zebrania wstrząśniętej załogi YouTube’a, zwołanego przez dyrektor naczelną Susan Wojcicki, dyskusja koncentrowała się wokół niepokojącego faktu, że najczęściej oglądane filmiki o tematyce wyborczej pochodziły ze źródeł szerzących dezinformację, takich jak Breitbart, i od zwolenników teorii spiskowych pokroju Alexa Jonesa5. Podobne obawy wyrazili pracownicy Facebooka. „Wyniki wyborów z roku 2016 pokazują, że misja Facebooka zakończyła się klęską”, napisał ktoś na wewnętrznej tablicy informacyjnej firmy. Ktoś inny stwierdził: „Niestety News Feed ma na celu optymalizację zaangażowania w serwisie. Jak się przekonaliśmy podczas wyborów, bzdury bardzo mocno angażują użytkowników”. Pojawił się i taki wpis: „Firma jest skończona”

Dyrektorzy platformy w prywatnych wiadomościach pytali siebie nawzajem, czy ponoszą za to wszystko odpowiedzialność. Przecież ledwie kilka miesięcy wcześniej analityk z Facebooka przedstawił niepokojący raport, który potem wyciekł do „Wall Street Journal”. Stwierdził w nim, że w Niemczech ponad jedna trzecia grup politycznych aktywnych na portalu ma charakter ekstremistyczny. Jak się zdawało, winę za to ponosił algorytm: sześćdziesiąt cztery procent członków tych wspólnot przyłączyło się do nich za namową systemu. Firma nie zrobiła jednak chaosu nic, by przeciwdziałać zaostrzaniu się konfliktów na tle politycznym w kraju i za granicą. Niektórzy pracownicy wyrażali też niezadowolenie z tolerowania wyczynów Trumpa. W 2015 roku zamieścił on na Facebooku filmik nawołujący do zamknięcia granic kraju przed muzułmanami. Nagranie obiegło sieć, polubione przez sto pięć tysięcy użytkowników i udostępnione czternaście tysięcy razy, jednak Mark Zuckerberg zlekceważył postulaty swoich podwładnych, by usunąć ten materiał, rozpowszechniany wbrew obowiązującemu na platformie zakazowi mowy nienawiści9.

Bez względu na to, co mówiono sobie w prywatnych rozmowach, na forum publicznym Facebook i inne portale zignorowały głosy zaniepokojonych pracowników. „Moim zdaniem czystym absurdem jest przekonanie, że fake newsy, stanowiące znikomy ułamek treści krążących na naszym portalu, w jakikolwiek sposób wpłynęły na wynik wyborów”, stwierdził Zuckerberg dwa dni po głosowaniu. Swoim krytykom zarzucił „brak elementarnej empatii, skoro twierdzą, że ktoś głosował inaczej niż oni tylko dlatego, że dotarły do niego fake newsy”.

Zuckerberg nazwał kiedyś Facebook „rewolucyjnym przedsiębiorstwem”. Platforma szczyciła się tym, że odegrała ważną rolę podczas arabskiej wiosny, a w trakcie eksperymentu przeprowadzonego na jej zlecenie w 2010 roku empirycznie dowiedziono, że może zmobilizować trzysta czterdzieści tysięcy wyborców. Portal, który prezentował się jako lider w branży, spełniający złożoną niegdyś przez Dolinę Krzemową obietnicę przeobrażenia ludzkiej świadomości, nagle w ciągu jednej nocy zaczął przedstawiać się jako zwyczajna strona internetowa. 

Dwa dni później Zuckerberg opublikował na Facebooku długi post w nieco łagodniejszym tonie, wciąż zdecydowanie wypierając się odpowiedzialności. Jak twierdził, tylko jeden procent postów zakwalifikowano jako „mistyfikacje”, zatem „to mało prawdopodobne, by tak niewiarygodne informacje przeważyły szalę 181 na korzyść któregoś z kandydatów”. Dodał też: „Powinniśmy zachować ostrożność, gdy próbujemy ustalić, gdzie leży prawda”. 

W całej Dolinie Krzemowej stawiano podobne diagnozy. „Wygląda na to, że nasza platforma pomogła mu wygrać wybory”, doszedł do wniosku członek zarządu Twittera, a efekty jej funkcjonowania uznał za „wielce niepokojące”. Tim O’Reilly, potężny inwestor i dawny szef DiResty, w wyważonym poście na blogu bez ogródek stwierdził: „Facebook zmierza w niewłaściwym kierunku, swoim priorytetem czyniąc »zaangażowanie«”

Pod koniec listopada Guillaume Chaslot opublikował rezultaty monitorowania algorytmu YouTube’a w okresie poprzedzającym wybory. Jego obserwacje napawały niepokojem, choć dotyczyły tylko niewielkiego wycinka z miliardów filmików rekomendowanych przez YouTube. „Ponad osiemdziesiąt procent polecanych materiałów przedstawiało Trumpa w pozytywnym świetle, bez względu na to, czy do wyszukiwarki wpisano jego nazwisko, czy Clinton”, napisał Chaslot. „Wśród tych rekomendacji dużą część stanowiły fake newsy zakrojone na pogłębianie podziałów politycznych”. Największą popularnością w tej kategorii cieszyły się opowieści o Pizzagate: o tym, jak to FBI odkryło „siatkę satanistycznych pedofilów” pod wodzą Hillary Clinton (milion dwieście tysięcy wyświetleń), jak to wypłynęły dowody świadczące o tym, że Bill Clinton napastował seksualnie dziecko (dwa miliony trzysta tysięcy wyświetleń), i tym podobne.

Chaslot i DiResta krążyli wokół pytania, które opinia publiczna stawiała wprost: czy Trumpa wybrały platformy społecznościowe? Odpowiedź na nie wydawała się oczywista. Ze stu trzydziestu ośmiu milionów oddanych głosów niecałe osiemdziesiąt tysięcy przesądziło o wyniku w kluczowych stanach. O tak niewielkiej przewadze zadecydować mogło kilka czynników: niewielka liczba głosów oddanych na mniej popularnych kandydatów; finał rodem z reality show, który odwrócił uwagę serwisów informacyjnych od skandalu z udziałem Trumpa; naiwność mediów, w których rozprawiano o mailach pisanych przez demokratów i upublicznionych przez rosyjskich hakerów; i oczywiście działalność mediów społecznościowych. Znacznie trudniej było odpowiedzieć na bardziej złożone pytania. Czy platformy społecznościowe należało obarczyć odpowiedzialnością za fenomen Trumpa? Czy popchnęły one Amerykę w jego ramiona, a jeśli tak, to czy stało się to za sprawą lekkiego szturchnięcia, czy potężnego nacisku? Owe pytania dotyczyły nie tylko wyniku wyborów, ale także skali szkód wyrządzanych przez media społecznościowe. Czy trumpizm był jedynie początkiem znacznie poważniejszych problemów?

Niezaprzeczalnie Trump zawdzięczał zwycięstwo czynnikom spoza świata cyfrowego, takim jak kryzys instytucjonalny Partii Republikańskiej, narastająca od dekad polaryzacja życia politycznego, spadek zaufania publicznego do polityków, opór białych obywateli wobec zmian społecznych i radykalizacja prawicowego elektoratu. Wprawdzie media społecznościowe nie odpowiadały za te problemy, ale stopniowo je pogłębiały – i to niekiedy dość drastycznie – jak z czasem dowiodły zastępy analityków i sygnalistów.

Kilka tygodni po wyborach Edgar Maddison Welch, brodaty dwudziestoośmiolatek z Karoliny Północnej, napisał wiadomość do przyjaciela: „Trzeba się rozprawić z szajką pedofilów, poświęcić życie garstki, by ocalić życie tysiącom”. Po obejrzeniu mnóstwa filmików na YouTubie poświęconych Pizzagate doszedł do wniosku, że trzeba działać. Uzbrojony w karabin AR-15 i rewolwer wyruszył do Waszyngtonu. Wdarł się do Comet Ping Pong i wycelował w pracownika, któremu udało się skryć w tłumie uciekających klientów. Nagle zauważył zamknięte na klucz drzwi, za którymi – jak twierdzono na oglądanych przez niego nagraniach – szajka demokratów przetrzymywała w piwnicy porwane dzieci. Strzelił w nie kilka razy i otworzył je kopniakiem. Za nimi znalazł jednak tylko schowek na sprzęt komputerowy. Restaurację otoczyła policja. Welch z uniesionymi rękami poddał się bez protestów.

Właściciel lokalu James Alefantis przez kilka następnych lat ukrywał się, przerażony narastającą lawiną coraz bardziej szczegółowych gróźb śmierci. Na skierowane przez niego do platform społecznościowych prośby o interwencję odpowiedziały tylko Yelp i Facebook. Jak twierdził, YouTube odmówił mu pomocy, uparcie utrzymując, że jako neutralny portal nie ponosi odpowiedzialności za Pizzagate, a jeśli Alefantis życzy sobie, by nagrania, które skłoniły Welcha do wtargnięcia do restauracji, usunięto, żeby nie prowokowały innych, to musi postarać się o nakaz sądowy. Dolina Krzemowa nie odpuszczała.

Problemem Facebooka jest Facebook

W ciągu następnych tygodni po triumfie Trumpa amerykańskie instytucje publiczne postawiono w stan gotowości. Agencje rządowe szykowały się na wojnę wypowiedzianą przez niego wyimaginowanemu „głębokiemu państwu”. Ugrupowania walczące o prawa człowieka gromadziły siły do walki z przepisami uderzającymi w mniejszości i imigrantów. Na kilku uniwersytetach grupka socjologów zabrała się do identyfikowania sił odpowiedzialnych za szerzenie się trumpizmu.

W gronie tym znalazł się William Brady, niegdyś zagorzały propagator weganizmu w mediach społecznościowych, a teraz psycholog badający rozprzestrzenianie się negatywnych emocji. W laboratorium na Uniwersytecie Nowojorskim opracowywał nowe metody badania mediów społecznościowych. Na Twitterze, tak jak na innych platformach, Trump mobilizował swoich zwolenników, podburzając ich przeciwko mniejszościom i instytucjom. Brady wiedział, że w dużych grupach oburzenie roznosi się jak choroba zakaźna, a pod jego wpływem ludzie zmieniają poglądy i obyczaje. Czy media społecznościowe, nagłaśniając poglądy Trumpa, zrobiły coś jeszcze? Czy narzuciły Amerykanom jego sposób myślenia oparty na ostrej opozycji między „nami” a „nimi” i jego przekonanie, że „trzeba to wszystko zrównać z ziemią”?

Zespół Brady’ego zgromadził pół miliona tweetów na temat ocieplenia klimatu, ograniczenia dostępu do broni i małżeństw jednopłciowych jako reprezentatywne przykłady dyskusji politycznych. Program do analizy języka badał każdy post, by zidentyfikować nastawienie emocjonalne autora i jego poglądy polityczne. Jakiego typu przekaz oddziaływał na największą skalę? Radosny? Smutny? Konserwatywny czy liberalny? Rezultaty badania były niejednoznaczne. Na przykład, jak stwierdził Brady, tweety o pozytywnym wydźwięku rozprzestrzeniają się zbyt niesystematycznie, by na tej podstawie ustalić, jak oddziałuje platforma. Zaobserwowano wszakże jedną prawidłowość: znacznie większy zasięg zyskiwały posty napisane językiem „moralno-emocjonalnym”, bez względu na ich temat i wyrażane w nich sympatie polityczne. 

  Ten styl ma wyrażać takie uczucia jak obrzydzenie, zawstydzenie albo wdzięczność. („Uchodźcy zasługują na współczucie”. „Poglądy tego polityka są oburzające”). Taki język nie tylko 185 służy do przekazania czegoś wspólnocie, ale także ma ją skłonić do wydania pozytywnego bądź negatywnego sądu. Gdy ktoś mówi: „Suzy fatalnie się zachowuje”, to tak naprawdę ma na myśli: „Suzy złamała zasadę moralną. Wspólnota powinna zwrócić na to uwagę, a może nawet zainterweniować”. Taki komunikat różni się od przekazu czysto emocjonalnego („Tak się cieszę z dzisiejszej legalizacji małżeństw jednopłciowych”) i osądu moralnego („Prezydent to kłamca”), które nie wywoływały efektu zaobserwowanego przez Brady’ego. Ustalił też, że każde słowo moralno-emocjonalne zwiększało zasięg tweeta o dwadzieścia procent. Im więcej ich użyto, tym dalej mógł zawędrować post. A zatem media społecznościowe promowały nie tylko Trumpa, który w większym stopniu niż inni kandydaci stosował język moralno-emocjonalny, ale także reprezentowany przez niego sposób prowadzenia polityki. Mało kogo obchodziły tweety Hillary Clinton, która próbowała załagodzić sytuację, zamiast dolewać oliwy do ognia.

Brady odkrył coś jeszcze. Gdy liberał zamieszczał tweet pełen słów moralno-emocjonalnych, zyskiwał on popularność wśród osób o liberalnych poglądach, ale nie rozpowszechniali go konserwatyści (i vice versa). Innymi słowy, autor takiego posta zyskiwał uwagę i uznanie za cenę izolacji od obozu przeciwników politycznych. Trudno o lepszy dowód polaryzacyjnej mocy Twittera. Dane świadczyły też o tym, że użytkownicy bezwiednie łykali przynętę, przypuszczając coraz gwałtowniejsze ataki na adwersarzy. „Negatywne posty o przeciwnikach politycznych z reguły wyzwalają większe zaangażowanie na Facebooku i Twitterze”, stwierdził Steve Rathje, badacz z Cambridge, w podsumowaniu wyników późniejszych badań, odwołujących się do ustaleń Brady’ego. Efekt ten zaobserwowano nie tylko w kontekście konfliktów na tle politycznym. Zachodzi on, gdy wyrażane są emocje i poglądy, u których podstaw leży pogarda dla osób spoza wspólnoty. Być może dlatego w 2020 roku analitycy Twittera doszli do wniosku, że na tej platformie algorytm uprzywilejowuje polityków konserwatywnych, którzy w różnych społecznościach niestrudzenie wytyczają ostre granice między „nami” a „nimi”.  

Do powszechnych zmian doszło dlatego, że podziały pogłębiały się na wielką skalę, wyzwalając u ludzi instynkt, który każe im stale sondować normy obyczajowe obowiązujące we wspólnocie i podporządkowywać się im. Wszyscy nieświadomie trzymamy się zasad życia społecznego. Jednak ktoś, kto próbowałby odgadnąć, jakie reguły obowiązują w mediach społecznościowych, czułby się jak w gabinecie luster, ponieważ na platformach niektóre postawy przedstawiano w tak wypaczony sposób, że wydawały się bardziej rozpowszechnione i aprobowane niż w świecie realnym. Na początku 2017 roku poza Doliną Krzemową panowała zgoda co do tego, że zwierciadła te wykrzywiają i zniekształcają nasze spostrzeżenia i doświadczenia, nikt jednak nie potrafił zmierzyć stopnia deformacji ani opisać efektu, jaki wywierała ona na błądzące wśród nich dwa, a może trzy miliardy ludzi.

W tym okresie Twitter był bodaj pierwszym serwisem, którego szkodliwe oddziaływanie opisano i niezbicie udowodniono. Nie wynikało ono z zasięgu portalu (Facebook i YouTube gromadziły sześć razy więcej użytkowników), jego zasobów finansowych (wartość giełdowa firmy wynosiła zaledwie dwa i pół procent wartości Facebooka) ani zaawansowania algorytmów, które były o kilka generacji starsze od tych stosowanych na większych, konkurencyjnych platformach.

Powód był prozaiczny: prezydent prowadził na swoim profilu na Twitterze stałą, bezpośrednią transmisję z Gabinetu Owalnego, bezustannie przemawiając do narodu, przez co wszyscy dziennikarze, pracownicy organizacji rządowych i świadomi politycznie obywatele nie mogli oderwać się od tego właśnie portalu. Tam zaś otoczyli ich trolle, które wciągały ich w niekończące się kontrowersje i walki między wrogimi obozami, zasypywali ich fałszywymi informacjami i plotkami. Obserwatorzy mediów i sceny politycznej, którzy wcześniej bagatelizowali media społecznościowe, twierdząc, że to „tylko” internet, teraz gremialnie weryfikowali swoje opinie. W przeciwieństwie do Facebooka i YouTube’a, gdzie użytkownicy dzielą się na odseparowane od siebie wspólnoty, na Twitterze pod jedną wielką Kopułą Gniewu wszyscy doświadczają tego samego, przez co systemowy charakter owych problemów łatwiej było zauważyć zaniepokojonym użytkownikom.  

„Obracam się w towarzystwie ludzi, których cieszy plucie jadem, krzewienie rasizmu, mizoginii i antysemityzmu”, skarżyła się prezenterka stacji CNN. Nie trzeba było wszczynać śledztwa kongresowego, by dojść do wniosku, że źle się dzieje, skoro platformę stanowiącą centrum amerykańskiego dyskursu politycznego zalewa powódź kłamstw rozpowszechnianych przez neonazistów i partyjnych propagandystów.

Twitterem już od jakiegoś czasu kierował Jack Dorsey, który po powrocie do firmy w 2015 roku na stanowisko dyrektora naczelnego ogłosił, że od teraz, zamiast dążyć do rozrostu platformy, zacznie tępić szykanowanie i mowę nienawiści. Można by potraktować to oświadczenie jako niegodną uwagi typową korporacyjną gadkę, gdyby grono użytkowników portalu nie przestało się nagle powiększać. Zahamowanie wzrostu cen akcji Twittera tak rozwścieczyło część głównych akcjonariuszy, że próbowali zmusić Dorseya do zmiany kursu, a gdy ten nie spełnił ich żądań, postanowili się go pozbyć. Za to komentatorzy tacy jak Brianna Wu, od lat krytycznie nastawieni do portalu, teraz z zadowoleniem odnotowali jego zmianę na lepsze, nawet jeśli polegała ona zaledwie na ograniczeniu najbardziej bulwersujących zachowań, na przykład grożenia śmiercią i wyrażania skrajnie rasistowskich poglądów.

Tylko że Dorsey, przynajmniej na początku, postanowił rozwiązać problem, eliminując złych aktorów, zamiast zastanowić się, czy do takich ekscesów nie prowokuje sama platforma. Inni dyrektorzy zarzucali mu brak zdecydowania i nieracjonalną wiarę w utopię wolności słowa, choć wbrew intencjom jego poprzedników nigdy nie urzeczywistniła się ona w Dolinie Krzemowej, o czym najlepiej świadczyły problemy, z którymi Dorsey musiał się konfrontować. On zaś zachowywał się jak dziwak żyjący we własnym świecie. Podczas pewnego spotkania poinformował podwładnych, że zamierza ogłosić nową misję Twittera, a następnie odtworzył piosenkę Blackbird Beatlesów. Brał udział w sesjach medytacji w odosobnieniu, między innymi w Mjanmie ledwie kilka miesięcy po tym, jak media społecznościowe przyczyniły się tam do masowej zbrodni. W obliczu spadku cen akcji Twittera oznajmił, że zamierza przeprowadzić się na jakiś czas do Afryki.

Nawet jego pracownicy nie wiedzieli, czy Dorsey tak bardzo zmienił się po wyborach, ponieważ przemyślał podstawowe założenia obowiązujące w Dolinie Krzemowej, czy wprowadzał w ten sposób nową strategię marketingową, czy zabiera swoją firmę na wyprawę duchową. Bez względu na jego motywacje, póki stał przy sterze, Twitter pomimo zszarganej reputacji unikał skandali na wielką skalę, z jakimi przyszło się mierzyć konkurencji. Platforma oddziaływała bowiem w zbyt małym zakresie, by zasadnie oskarżać ją o sprowokowanie ludobójstwa albo manipulacje podczas kampanii wyborczej. Poza tym, w przeciwieństwie do innych firm, dział marketingu Twittera niczego nie taił, unikał konfrontacji i nie ogłaszał górnolotnych manifestów. 

Początkowo, w ciągu tygodni po triumfie Trumpa, te duże przedsiębiorstwa – pod presją opinii publicznej i własnych pracowników wyrażających szczerą chęć, by przynajmniej przez chwilę kultywować obywatelską postawę – usilnie starały się zrozumieć, w którym momencie pobłądziły. Facebook zlecił wewnętrzny audyt pod nazwą Project P, ponieważ początkowo 189 głównymi podejrzanymi byli rosyjscy propagandyści. Ustalono, że powiązana z Kremlem Agencja Badań Internetowych niejednokrotnie płaciła rublami za ogłoszenia na Facebooku, które zachęciły sześćdziesiąt tysięcy użytkowników do udziału w imprezach mających wesprzeć Trumpa i działać na niekorzyść Clinton. Facebook złożył przeprosiny. Prawdopodobnie knowania Rosjan odniosły niewielki skutek. Wydarzenie z udziałem sześćdziesięciu tysięcy osób znaczy niewiele w skali całej społeczności Facebooka. Była to jednak – jak ustaliła DiResta i inni obserwatorzy – kropla w morzu rosyjskich intryg. 

Inne odkrycia wzbudziły znacznie większy niepokój. Dziesiątki profili rozpowszechniały fałszywe, skrajnie nieobiektywne wiadomości. Tym prowokatorom – spamerom do wynajęcia za drobną opłatą, goniącym za łatwym zarobkiem – brakowało wyrafinowania, jakim wykazywali się Rosjanie. Udało im się jednak przyciągnąć rzesze odbiorców, a to dowodziło, że Facebook ułatwia im skuteczne działanie. Znalazło się ich tylu, że kierownictwo portalu musiało rozważyć, gdzie – o ile w ogóle – należy wytyczyć granicę między dozwolonym dyskursem politycznym a karygodną dezinformacją. Była to delikatna kwestia. Wszak nowy prezydent przez większość życia poczynał sobie w tej sferze dość odważnie.

Decydującą rolę odegrał wtedy Joel Kaplan, konserwatywny lobbysta, który na zlecenie Facebooka bronił jego interesów w kręgach republikanów. Po wyborach skutecznie sprzeciwiał się takim zmianom jak modyfikacja algorytmu i blokowanie profili rozpowszechniających fake newsy. Te rozwiązania działały przede wszystkim na niekorzyść konserwatystów. Szefowie Partii Republikańskiej, którzy kontrolowali Kongres i Biały Dom, zdążyli już – najczęściej pod jakimś niedorzecznym pretekstem – kilkakrotnie poskarżyć się na „cenzurowanie” konserwatystów przez platformy. Co dobrego mogło wyniknąć z dalszego zaogniania tego konfliktu?

Facebook, Twitter i YouTube dość podobnie wyjaśniły na forum publicznym to, co stało się w 2016 roku. Społeczeństwo było podzielone i choć platformy w pewnej mierze się do tego przyczyniły, teraz mogły stanowić część rozwiązania. Zuckerberg obiecał, że Facebook wykorzysta swoją technologię, by „zjednoczyć ludzkość”. Chodziło mu o to, by więcej użytkowników zrzeszać w grupach, choć przecież – jak dowiodło wielu komentatorów – właśnie w ich obrębie dochodziło do radykalizacji, przez co okazały się znacznie niebezpieczniejsze niż rosyjska propaganda i fake newsy. Jednak wbrew powszechnemu mniemaniu rozwiązanie to miało sprawić, że w grupach zapanuje większa różnorodność światopoglądowa.

Pomysł ten podchwyciła cała Dolina Krzemowa. Twitter też zamierzał zbliżać ludzi o odmiennych poglądach. Ellen Pao powiedziała mi, że zanim zwolniono ją z Reddita, planowała wprowadzić w życie podobny pomysł. YouTube zgodnie z tą koncepcją przeprowadził aktualizację algorytmu zwaną Reinforce, czyli wzmocnienie (choć tak naprawdę miała ona wydłużyć czas spędzany w sieci, jak twierdził programista z tej platformy). Specjalista od sztucznej inteligencji pracujący dla Facebooka rozprawiał o tym, że oprogramowanie platformy pomoże ustalić, „jak opinie kształtują się, krystalizują i kostnieją i dlaczego dwóm osobom tak trudno się dogadać”. Jego kolega z firmy twierdził, że algorytm Facebooka od tej pory będzie konfrontował użytkowników z różnymi światopoglądami.

U podstaw ich decyzji leżała – często opacznie rozumiana – teoria zwana hipotezą kontaktu. Zaproponowano ją po drugiej wojnie światowej, by wyjaśnić, dlaczego w oddziałach wojskowych złożonych z czarnych i białych żołnierzy rzadziej dochodził do głosu rasizm. W myśl owej teorii nieufne wobec siebie grupy społeczne traktują się nawzajem z większym szacunkiem, jeśli częściej mają ze sobą kontakt. Jednak późniejsze badania wykazały, że proces ten zachodzi tylko wtedy, gdy zostanie spełniony szereg warunków: kontrolowana ekspozycja, równość traktowania, neutralne terytorium i wspólnie wykonywane zadanie. Wielokrotnie dowiedziono, że zwykłe przemieszanie wrogich grup tylko zaostrza antagonizm.

W rok po wyborach zespół politologów poprosił kilkuset użytkowników Twittera, którzy identyfikowali się jako demokraci lub republikanie, o korzystanie z bota przekazującego im głosy z przeciwnego obozu. Uczestnicy eksperymentu nie stali się przez to tolerancyjniejsi, a wręcz przybrali bardziej radykalne postawy ideowe. W trakcie innego badania okazało się, że zwolennicy jednej opcji politycznej często nie zauważają racjonalnych i nieobraźliwych postów od osób o odmiennych poglądach. Natychmiast jednak rzucają im się w oczy kontrowersyjne stwierdzenia przeciwników. Z reguły udostępniają te tweety jako dowód demoralizacji adwersarzy. Na przykład podczas prawyborów prezydenckich Partii Demokratycznej zwolennik Hillary Clinton prawdopodobnie przegapiał większość tweetów od osób popierających Berniego Sandersa, póki któraś z nich nie przekroczyła dopuszczalnych norm. Wtedy udostępniał zdjęcie dwudziestotrzyletniego baristy, który twierdzi, że Clinton jest „wrzaskliwa”, i opatrywał je komentarzem: „Kumple Berniego to seksiści”. 

Ludzie z reguły postrzegają grupy spoza swojej wspólnoty jako jednorodne. Gdy ktoś z klanu przeciwników fatalnie się zachowa, traktujemy go jako reprezentanta wszystkich jego ziomków. Kiedy tweet zwolennika Clinton wywoła oburzenie w sieci, użytkownicy o podobnych poglądach prawdopodobnie zaczną zauważać analogiczne wykroczenia w gronie stronników Sandersa. Kolejne tweety na ten temat nabiorą rangi dowodów na powszechność reguły: Sandersa popierają seksiści. Politolodzy określają to zjawisko mianem fałszywej polaryzacji. Naukowcy ustalili, że pogłębia się ona w silnie upolitycznionych środowiskach, kiedy opinia liberałów o konserwatystach i vice versa coraz bardziej oddala się od rzeczywistości. W konsekwencji zaostrza się polityczny konflikt o sumie zerowej. Ktoś, kto uważa Sandersa za polityka o odmiennych poglądach, będzie skłonny przyznać mu rację w pewnym zakresie. Natomiast ten, dla kogo jest on niebezpiecznym radykałem stojącym na czele bandy chuliganów, dojdzie do wniosku, że jego program wyborczy należy storpedować, a sympatyków zmieść z areny politycznej.

Nawet elementarne struktury mediów społecznościowych wzmagają polaryzację. Jak dowiedziono w trakcie pewnego eksperymentu, osoby czytające artykuł wraz z zamieszczonymi pod nim komentarzami wyrabiają sobie na jego temat skrajne opinie. W grupach kontrolnych, które czytały tylko główny tekst, panowało większe umiarkowanie i otwartość. Co więcej, liczy się nie tyle perswazyjna siła komentarzy, ile sama ich obecność. Jak odkryli badacze, czytelnicy wiadomości w dużej grupie przetwarzają informacje inaczej niż w trakcie indywidualnej lektury: instynkt społeczny bierze górę nad rozsądkiem, a oni szukają potwierdzenia słuszności poglądów wśród swoich sprzymierzeńców.

Społeczności facebookowe potęgują ten efekt. Dowiedziono naukowo, że członkowie jednorodnych grup społecznych są bardziej wyczuleni na sygnały od otoczenia i wykazują większy konformizm. Upośledza to ich zdolność do identyfikowania fałszywych informacji i wzmaga podatność na zmyślenia 193 potwierdzające ich tożsamość, przez co zachodzi większe prawdopodobieństwo rozprzestrzeniania się kłamstw i teorii spiskowych. „Gdy w mediach społecznościowych natrafiamy na poglądy, z którymi się nie zgadzamy, reagujemy na nie inaczej, niż gdybyśmy dowiedzieli się o nich z gazety”, tłumaczy w swoim artykule socjolożka Zeynep Tufekci. „To tak, jakbyśmy siedzieli na stadionie w gronie kibiców naszej ulubionej drużyny i słuchali zwolenników przeciwnego zespołu. (…) Nasza grupa się konsoliduje, wymyślając sympatykom drużyny, za którą nie przepadamy”. Bez względu na to, czy modyfikacja algorytmu skieruje użytkowników ku osobom o podobnych, czy o odmiennych poglądach, ostatecznie wyzwolone zostaną te same niebezpieczne siły, nieuchronnie dopuszczane do głosu przez platformy ze względu na fundamentalne cechy ich struktury. Dlatego to socjologowie jako pierwsi doszli do wniosku, że – jak ujął to medioznawca Siva Vaidhyanathan – „problemem Facebooka jest Facebook, a nie jakaś jego marginalna cecha, którą można wyeliminować bądź przekształcić”.

Tamtej wiosny promotor pracy doktorskiej Williama Brady’ego wspomniał o jego badaniach podczas wykładu na konferencji naukowej. Siedząca na widowni Molly Crockett, neurobiolożka z Uniwersytetu Yale, nastawiła ucha. Zajmowała się bowiem neurologicznym aspektem zachowań społecznych. Zauważyła, że pomimo swej głębokiej wiedzy o mechanizmach psychologicznych od wyborów poświęca coraz więcej czasu na poszukiwanie bulwersujących treści w mediach społecznościowych. „Kiedy przeczytałam coś, co mnie wkurzyło, niemal bezwiednie udostępniałam to znajomym”, wspominała w udzielonym później wywiadzie. „Obsesyjnie sprawdzałam, kto zareagował i co napisał. Jakby mnie zaprogramowano”.

Ona i jej znajomi wzajemnie podsycali swój gniew po przeczytaniu posta o tym, że z powodu braku siły roboczej z zagranicy w Kalifornii niezebrane pomidory gniją na grządkach. Grono przyjaciół Crockett scementowała wściekłość na okrucieństwo Trumpa, którego obarczali winą za ten stan rzeczy. Jak dowodzi ta opowieść, wspólnie hołdując liberalnym wartościom, uważali się za lepszych, póki ktoś nie zauważył, że post ten pochodzi z 2011 roku. „Poczułam się, jakbym wyszła z transu”, wyznała Crockett. „Wpadłam w pętlę sprzężenia zwrotnego, dokładnie tak jak szczury w naszym laboratorium doktoranckim, nauczone pociągać za dźwignię, gdy dopadł je głód kokainowy”. 

Dzięki swoim badaniom wiedziała, że platformy społecznościowe, dopuszczając takie emocje do głosu, aktywują ważne szlaki neuronowe, które decydują o naszym zachowaniu, postrzeganiu rzeczywistości, a nawet poczuciu dobra i zła. Napisała krótki, ale szeroko komentowany artykuł Moral Outrage in the Digital Age, w którym powołała się na ustalenia Brady’ego. Wyszła od prostego stwierdzenia: niektóre bodźce społeczne mogą w sprzyjających okolicznościach zmienić ludzką naturę. Jej wnioski na podstawie najnowszych danych dawały do myślenia: znormalizowane w sieci, ciągłe narastanie oburzenia i konfliktów „przeobraża pierwotne emocje społeczne, które zamiast służyć powszechnemu dobru, stają się narzędziem zbiorowej autodestrukcji”. Technologia ta, wyzwalająca coraz więcej wrogości i odruchów plemiennych i każąca nam postrzegać osoby spoza wspólnoty jako ludzi gorszej kategorii, prawdopodobnie tak samo wpływa na społeczeństwo i politykę.

Wtedy jednak była to tylko hipoteza. Crockett skontaktowała się z Bradym, który przyjął jej zaproszenie do wspólnego kontynuowania badań. W tym samym czasie swoją działalność rozpoczynała inna nieformalna grupa analityków skupionych wokół DiResty. Korzystali oni z innych metod niż Crockett i Brady, a swoje wysiłki koncentrowali na odmiennym aspekcie oddziaływania mediów społecznościowych. Zespoły te nie wiedziały 195 o sobie nawzajem, ale ostatecznie doszły do niemal jednakowych, napawających grozą konkluzji. DiResta, podobnie jak Brady i Crockett, zaczęła od szczegółowego pytania: jak głęboko sięgnęła ingerencja Rosjan?

Na tropie Rosjan

Gdy presja opinii publicznej nieco osłabła i ucichły obietnice transparentności składane przez główne platformy, DiResta skontaktowała się z analitykami, którzy niegdyś pomogli jej namierzyć agentów Państwa Islamskiego, antyszczepionkowców i uczestników Pizzagate. „Drużyna znowu zwarła szyki”, oznajmiła. Na zaszyfrowanym czacie grupowym podzielili się materiałami z mediów społecznościowych, które wyglądały na dzieło rosyjskich propagandystów, i ruszyli, jak to ujęła DiResta, „po nitce do kłębka”.

Wyszli z założenia, że zmapowanie rosyjskiej kampanii pomoże im zrozumieć, jak platformy kierowały przepływem informacji i zaburzały go. W ten sposób zamierzali pociągnąć ich szefów do odpowiedzialności. Nie mogliby oni z taką łatwością, z jaką bagatelizowali teorie spiskowe antyszczepionkowców, zignorować zarzutu o współudział w zamachu na amerykańską demokrację. Grupa DiResty napotkała jednak poważny problem: dostępność materiału. Na platformach, na których codziennie krążą miliardy informacji, badanie jednego posta po drugim miało tyle sensu, co próba zrozumienia procesów geologicznych na podstawie obserwacji pojedynczych ziarenek piasku. „Wyłącznie platformy mają dostęp do pełnego spektrum danych – stwierdziła DiResta – i nie muszą jak my stosować gówno wartych metod, polegających na wpisywaniu przypadkowo wybranych nazwisk do wyszukiwarek”. Jednak firmy te zdawkowo odpowiadały na pytania i nie zamierzały udostępniać swoich systemów zewnętrznym instancjom kontrolnym. „Wielokrotnie spotykałam się ze zmową milczenia”, wspomina DiResta.

 

Książka została wydana przez wydawnictwo Szczeliny.

*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter

Pomóż nam sprawdzać, czy politycy mówią prawdę.

Nie moglibyśmy kontrolować polityków, gdyby nie Twoje wsparcie.

Wpłać

Dowiedz się, jak radzić sobie z dezinformacją w sieci

Poznaj przydatne narzędzia na naszej platformie edukacyjnej

Sprawdź!