Strona główna Analizy Czy algorytmy wybierają naszych przywódców? Wywiad z Maxem Fisherem [zapis rozmowy]

Czy algorytmy wybierają naszych przywódców? Wywiad z Maxem Fisherem [zapis rozmowy]

Chyba nie tak wyobrażaliśmy sobie sztuczną inteligencję. Zamiast przybrać formę androidów i pomagać nam kosić trawę, zmywać za nas naczynia, czy po prostu dotrzymać nam towarzystwa, rozwijana jest ona w zupełnie inną stronę.

Czy algorytmy wybierają naszych przywódców? Rozmowa z Maxem Fisherem

Czy algorytmy wybierają naszych przywódców? Rozmowa z Maxem Fisherem

Czy algorytmy wybierają naszych przywódców? Wywiad z Maxem Fisherem [zapis rozmowy]

Chyba nie tak wyobrażaliśmy sobie sztuczną inteligencję. Zamiast przybrać formę androidów i pomagać nam kosić trawę, zmywać za nas naczynia, czy po prostu dotrzymać nam towarzystwa, rozwijana jest ona w zupełnie inną stronę.

Zachęcamy do przeczytania rozmowy z Maxem Fisherem. Rozmowę możesz również odsłuchać w formie podcastu.

AI, z którą najczęściej mamy do czynienia, czyli algorytmy w mediach społecznościowych, wciska nam kolejne przedmioty i usługi, próbuje nas skłócić, podrzuca nam treści o teoriach spiskowych. Przynajmniej tak sugerują dane. 

Czy wybiera nam również prezydentów?

Jak bardzo potrafi wpłynąć na świat rzeczywisty i kształtować nasze poglądy? Bo politycy w ostatnich latach intensywnie korzystają z mediów społecznościowych, aby komunikować się ze swoimi potencjalnymi wyborcami. I tutaj można się zastanowić, jak dużą rolę w pozyskiwaniu zwolenników może mieć algorytm, szerzenie dezinformacji czy narracji wykorzystywanych w kampaniach, opartych na emocjach i kontrowersji, a nie – na faktach? 

Pomyślałam, że dobrze będzie o tym porozmawiać kilka miesięcy przed tym, zanim sami pójdziemy (albo i nie) do urn na jesieni. 

I tak się składa, że wczoraj [31 maja 2023 roku – przyp. Demagog] swoją premierę w Polsce miała książka Maxa Fishera pt. „W trybach chaosu. Jak media społecznościowe przeprogramowały nasze umysły i nasz świat”. Max Fisher to dziennikarz „The New York Times’a”, który od wielu lat opisuje m.in., co się dzieje w mediach społecznościowych. Obserwując rozwój technologii, która kryje się za algorytmami kierującymi mediami społecznościowymi, i analizując dane i badania na ten temat napisał m.in. właśnie o tym: jak świat wirtualny wpływa albo może wpływać na ten realny. 

Udało nam się porozmawiać tydzień temu. U mnie był wieczór, a Max pił poranną kawę.

 

W kilku fragmentach swojej książki odwołujesz się do konkretnych tytułów z gatunku science fiction albo do samego podgatunku, jakim jest cyberpunk: film „Matriks” na przykład, kultura hakerów… No to jak się czujesz, żyjąc w cyberpunkowej rzeczywistości, bez tych wszystkich fajnych gadżetów?

(śmiech) To zabawne, bo kiedy porównujemy technologię i sztuczną inteligencję, z którą wylądowaliśmy, możemy zauważyć, jak różna jest od tej, która pojawia się w książkach i filmach. A pod innymi względami żyjemy w świecie podobnym do naszych wyobrażeń. Wygląda on bardzo sympatycznie, bo cała ta technologia ma prokonsumencki charakter i kierowana jest przez bardzo proste, darmowe strony mediów społecznościowych. Twój Facebook, YouTube, Twitter może nie wyglądają jak reprezentanci najnowocześniejszych osiągnięć w zakresie sztucznej inteligencji, ale zdecydowanie nimi są. Po pierwsze, dlatego że posiadające je firmy zarabiają tak dużo pieniędzy, że w ciągu ostatnich lat zatrudniły wszystkie najzdolniejsze umysły na świecie zajmujące się AI, żeby zaprojektowały superkomputery: samoobsługowe, samomyślące, samotrenujące się maszyny, które cały czas się uczą z każdej Twojej interakcji na platformach społecznościowych. Technologia ta stara się zorientować, jaki rodzaj treści ci podrzucić, w jakiej sekwencji, formie, jakim bodźcem się posłużyć, abyś była jak najdłużej online. Ale nie wygląda jak Skynet: fikcyjna sztuczna inteligencja z filmu „Terminator 2”. Nie wygląda jak wszechmogące roboty z „Matriksa”, ponieważ umieszczono je w bardzo przystępnym opakowaniu.

Ta technologia owija każdy aspekt Twojego życia, bo prawie na wszystko, co robimy, wpływają media społecznościowe: interakcje międzyludzkie, informacje, których szukamy. Nawet to, jak się czujemy: chwila po chwili, godzina po godzinie i nawet wtedy, gdy w danym momencie nie ma nas na platformie społecznościowej. Kierujemy naszymi interakcjami w społeczeństwie przez platformy i ponieważ te interakcje napędzają proces uczenia się, nasze emocje, tożsamość, to, jak postrzegamy nasze miejsce na świecie. Te systemy są niezwykle potężne i mają na nas ogromny wpływ. Tyle tylko, że tego nie zauważamy, ponieważ widoczne jest to w wąskim aspekcie naszego życia, który polega na przewijaniu i klikaniu większej liczby reklam. Ale tak, zgadzam się. Miło by było, gdybyśmy do tego mieli też latające samochody.

Albo buty z automatycznymi sznurówkami.

Mów za siebie! Mam je od tygodni! Mieszkam w Kalifornii, mamy tu je od zawsze.

Ok, cofam to, teraz ci zazdroszczę, idźmy dalej, nie rozmawiajmy już o tym!

(śmiech)

(śmiech) Właściwie to chyba gdzieś mi mignęło, że już je wynaleźli.

Naprawdę? 

To chyba był prototyp, o ile się nie mylę? Nie jestem pewna, nie do końca to zweryfikowałam, ale widziałam to w internecie, więc to musi być prawda [taka technologia istnieje już od prawie dekady – przyp. Demagog]. 

(śmiech) W porządku, może to prawda, może nie, ale coś mi to przypomniało. Dlaczego właściwie nie mamy samozawiązujących się butów? Ponieważ wszystkie pieniądze w Dolinie Krzemowej, które determinują pracę inżynierów i firm, po prostu podążają za najbardziej opłacalną inwestycją. A od 2008 roku, czyli już od 15 lat, najlepszą inwestycją są platformy społecznościowe. Jeśli jesteś wynalazczynią albo bardzo utalentowaną inżynierką, nie dostaniesz pieniędzy na start up, który wprowadzi na rynek pojazdy bez kierowcy. Raczej dadzą ci pieniądze na zaprojektowanie bardzo uzależniającej strony.

To prawda. Napisałeś całą książkę o algorytmach, które wpływają na nasze życie – na tyle, na ile rozumiem – właśnie z tego powodu: zostały one stworzone po to, aby przykleić nas do telefonów i innych urządzeń. A to, w jaki sposób na nas wpływają… czy ktokolwiek się nad tym zastanawiał, jakie będą skutki uboczne?

Ludzie, którzy tworzyli te systemy, nigdy nie skupiali się na możliwych konsekwencjach. Było ku temu kilka powodów. Pierwszy: żyli w bardzo intensywnym ekonomicznie ekosystemie napędzanym przez pieniądze. Aby ich firmy przetrwały, skupiali się głównie na tym, co zrobić, aby zarabiać dużo pieniędzy. Co zrobić, żeby ceny akcji wzrosły? Co da nam najlepszą wycenę na rynku? Co przyciągnie uwagę? Innym powodem było to, że stała za tym pewna ideologia, która teraz trochę obumiera, ale kwitła w tym miejscu przez długi czas, od lat 60. i 70. Według niej ludzie z Doliny Krzemowej, wynalazcy nowych technologii, nie tylko tworzyli produkty, które spodobałyby się ludziom, czy były im przydatne. Nie, oni swoją pracą dosłownie ratowali gatunek ludzki. Wprowadzali go w nową erę egzystencji na tym świecie. 

Przez tę ideologię sami twórcy uwierzyli, że im więcej czasu ludzie spędzą z ich produktami, im mocniej się z nimi zwiążą, tym bardziej będą wyzwoleni i oświeceni. Nie było potrzeby zastanawiania się nad konsekwencjami tego, że Facebook stanie się narzędziem uzależniającym czy tego, że zaprojektujemy YouTube’a tak, aby oglądać więcej materiałów, niezależnie od tego, czy przekazuje on prawdziwe informacje, czy podburza, czy skłania do nienawiści. Wszystko przez wiarę podzielaną przez wszystkich w Dolinie Krzemowej, od szczytu hierarchii w dół, od szefów do inżynierów: wiarę w to, że są wyjątkowi, inni, a projekt, nad którym pracują kolektywnie, to zbawienie dla przyszłości ludzkości. Jeśli więcej ludzi spędzi więcej czasu przy ich produktach, będzie to oznaczało, że osiągają cel.

Dodatkowo mieli bardzo mocne przekonanie, zakorzenione jeszcze w latach 60. i 70., że wszystkie instytucje i wartości spoza Doliny Krzemowej są zepsute i skorumpowane. Nie można zaufać rządowi. Nie można zaufać tradycyjnemu systemowi wartości, a inne źródła władzy z natury są w błędzie. Tak więc mieszkańcy Doliny Krzemowej, aby nas uratować, musieli również rozwalić istniejące instytucje, struktury władzy oraz społeczeństwa – i dokładnie to robili przez ostatnie 10-15 lat. Zajęło im naprawdę sporo czasu, żeby się ocknąć i zobaczyć, że korzystanie z ich produktów może mieć potencjalnie negatywne konsekwencje dla świata. Nie chcieli tego widzieć, istniał opór wobec uznania takiego stanu rzeczy, ponieważ chodziło też, oczywiście, o to, że włożyli w to mnóstwo pieniędzy. 

W porządku. Chcieli nas zbawić. Ale… czym właściwie? Facebook, Twitter… Co jest tą istotą tych aplikacji, która mogłaby nas zbawić? Co konkretnego mieli na myśli?

To pewnie zabrzmi, jakbym przesadzał: przecież nikt nie może być tak wzniosły, tak idealistyczny, prawda? Możesz wrócić do manifestów, które napisano w Dolinie Krzemowej w latach 90. czy w pierwszych latach XXI wieku. Wszędzie krążyły wtedy różne dokumenty czy „biblie technologii”, które wprost mówiły o „kreowaniu zupełnie nowego społeczeństwa” w internecie. Takiego, które będzie wolne, nie będzie w nim zasad ani ograniczeń. Takiego, które będzie prowadzone przez otwartość umysłu i komunikację. Ich autorzy naprawdę wierzyli, że zaproszenie ludzi na ich platformy stworzy coś w rodzaju nowej istoty ludzkiej oraz wyzwolonego społeczeństwa. Kłamstwo, które sobie powtarzali, polegało na tym, że te systemy będą wolne i prowadzone przez użytkowników. W rzeczywistości były prowadzone przez algorytmy i inne systemy promocji treści – nawet tak proste, jak „lajki” czy „udostępnienia”, których celem miało być pchnięcie człowieka na poziomie indywidualnym, jak i zbiorowym, a rozmawiamy tu o miliardach ludzi – w konkretnych kierunkach, aby spędzali więcej czasu online. Nauczyły się, jak to robić, poprzez podtrzymywanie i angażowanie konkretnych emocji, takich jak: oburzenie, nienawiść, czy strach. Albo odnosiły się do sposobów funkcjonowania w świecie: plemienności, podejścia „my, kontra oni”, funkcjonowania w konflikcie egzystencjalnym.

Trzeba dodać, że inżynierowie z góry nie zakładali takich elementów w tym systemie. W Dolnie Krzemowej nie uzgodniono, że „Hej, podgrzejmy trochę oburzenie na całym świecie”. Ale zaprojektowali samouczące się, automatyczne i samodzielne systemy oparte na sztucznej inteligencji, które kierują platformami. Te cały czas prowadziły eksperymenty, które treści będą dla nas najbardziej angażujące: dla wszystkich jako gatunku, jak i dla każdego z osobna. W tym celu śledzą nasze zachowania i upodobania.

To, co każdy psycholog społeczny mógł już wtedy powiedzieć ludziom z Doliny Krzemowej, gdyby byli zainteresowani taką wiedzą, to to, że emocje i upodobania, jakie będą najbardziej angażujące, to nienawiść, strach, oburzenie czy plemienność. I bardzo szybko stało się jasne – może około roku 2013, 2014 – że te systemy bardzo konsekwentnie rozwijają u użytkowników negatywne, szkodliwe emocje oraz zachowania. Prowadziły nas one do bardzo destrukcyjnego punktu. Ale Dolina Krzemowa nie chciała tego widzieć. Po części ze względu na ideologię, która ich zaślepiła, a po części dlatego, że zarabiali na tym niewyobrażalne pieniądze.

Cieszę się, że o tym wspomniałeś: o roli emocji w tym procesie, ponieważ chciałabym wrócić do tego tematu później. Zastanawiałam się, o której części Twojej książki porozmawiać. Napisałeś o wpływie algorytmów i mediów społecznościowych na nasze zachowanie w wielu aspektach naszego życia: zdrowia, kontaktów społecznych, dyskusji i jej polaryzacji, ale ostatecznie pomyślałam, że moglibyśmy się skupić na polityce: na wyborach, na tym, jak wybieramy naszych liderów. Jak o tym decydujemy. A może: decydujemy? Może jest tutaj znak zapytania? W 2010 roku – jak napisałeś w swojej książce – przeprowadzono eksperyment, który wykazał, że dzięki Facebookowi można zmobilizować ludzi: dokładnie 340 tys. niezdecydowanych w tej kwestii ludzi, do tego, aby poszli na wybory. To brzmi… raczej pozytywnie?… A może nie?

To celna uwaga. Badanie zlecił Facebook w 2010 roku i data jest ważna, ponieważ wtedy ta platforma była jeszcze prymitywna. Technologia, na której bazowała, była o wiele prostsza – teraz jest potężniejsza. Grupie użytkowników pokazano mały komunikat. Pytanie: „Czy już głosowałeś?” O ile pamiętam, jeśli zagłosowali, mogli poinformować o tym swoich znajomych. I wystarczyło, że pokazał się ten drobny komunikat oraz zachęta do tego, aby się tym podzielić publicznie ze swoimi przyjaciółmi na Facebooku, aby zachęcić tysiące ludzi do wyjścia z domu i do oddania głosu. Oczywiście to dobra rzecz, że więcej ludzi głosuje. Ale była w tym też ta niepokojąca sugestia szkodliwych konsekwencji – teraz dla nas oczywista. 

Otóż kiedy masz profil na Facebooku, Twitterze, YouTubie, TikToku, ingerują one w nasze życia tak efektywnie, że wystarczy tylko drobne skinienie z ich strony, abyśmy coś zrobili. Tym bardziej że sposób, w jaki platformy społecznościowe wyświetlają te „drobne skinienia” i informacje, sprawia, że nie postrzegamy ich jako coś, co pochodzi od Facebooka czy z Doliny Krzemowej, ale od naszych przyjaciół: jakby to oni nakłaniali nas do pójścia na wybory.

Kiedy rozmawiałem z psychologami społecznymi o wpływie mediów społecznościowych, mówili oni ciągle o ludzkim dążeniu do konformizmu. Przez to dążenie cały czas monitorujesz, co robią ludzie dookoła nas. Jeśli ludzie robią coś konkretnego – dotyczy to szczególnie tych, którym ufamy – zaczniemy czuć pragnienie naśladowania ich nie tylko ze świadomego konformizmu, lecz także wskutek czegoś o wiele potężniejszego: chęci robienia tego, co robią wszyscy. I jeśli chodzi o głosowanie – super. Ale oczywiście wiemy, że platformy nakłaniają do rzeczy takich jak oburzenie, więc prawdopodobnie będą ci pokazywać najbardziej oburzające posty ludzi w Twoim otoczeniu. 

Powiedzmy, że masz stu znajomych na Facebooku i w danym momencie tylko dziesięcioro z nich jest oburzone czymś, co się dzieje na świecie. Pozostała 90-tka ma się świetnie, czuje się szczęśliwa w takim świecie, jaki mamy. Tymczasem Facebook wyświetli Ci posty tych oburzonych. To będzie na szczycie Twojego feedu, bo takie treści mają największą szansę przyciągnąć Twoją uwagę. Facebook wrabia Cię w myślenie, że cała Twoja społeczność jest oburzona jakąś tam sprawą, co uruchomi Twój impuls konformizmu. Twój własny Ci: „Ponieważ Twoja społeczność jest oburzona, Ty też powinnaś być. I powinnaś czuć, że wychodzi to od Ciebie”. I dlatego sama też opublikujesz coś podobnego na Facebooku, aby spełnić pragnienie bycia częścią grupy, a to, co napiszesz, trafi rykoszetem do innych. Jeśli dalej będziemy tak postępować na ogromną skalę – a to właśnie obserwujemy dzisiaj w polityce: że kiedy w rządzie wydarzy się coś, co może nie zasługuje na ogromne oburzenie, to mimo to użytkownicy tak zareagują i udostępnią informację na wielu feedach – to prawdopodobne jest, że ludzie odczują te emocje nie tylko w sieci, lecz także poza nią.

Był taki eksperyment, o którym często myślę. Miał pokazać, jak skutecznie takie zjawisko może wpływać na transformację polityki. W 2018 roku w Stanach Zjednoczonych zespół naukowców przebadał naprawdę spore grupy ludzi. Jedna używała mediów społecznościowych tak jak zwykle, a druga grupa miała skasować Facebooka na cztery tygodnie. Podkreślam: nie wszystkie media społecznościowe i tylko na 4 tygodnie, co nie jet długim okresem w porównaniu do lat, które spędzamy w tych aplikacjach. Okazało się, że pod koniec tych 4 tygodni ludzie, którzy skasowali Facebooka, po pierwsze – mieli większą satysfakcję z życia. To jest dobre przypomnienie, że media społecznościowe pokazują ci rzeczy, które czynią Cię nieszczęśliwym i że nie używamy ich, by czerpać z nich radość – używamy ich, ponieważ jesteśmy od nich uzależnieni. I to jest prawdziwe, fizyczne, chemiczne uzależnienie, jak papierosy.

Inną rzeczą, którą odkryli, było to, że ludzie, którzy skasowali Facebooka byli wyraźnie mniej spolaryzowani w kwestiach polityki. A różnica była równa około połowy ogólnego wzrostu polaryzacji w USA w ciągu ostatnich 25 lat. Oczywiście w Stanach Zjednoczonych, tak jak w Polsce, wystąpił ogromny wzrost polaryzacji społeczeństwa w tym czasie. To nie znaczy, że Facebook jest tego wyłączną przyczyną, ale korzystanie z niego wpływa na Twoje postrzeganie świata i na interakcje z nim. A jak już wspomniałem, wystarczy tylko to „drobne skinienie” przy użyciu podrzucanych treści. Jeśli platforma nakłoni Cię do myślenia, że Twoje społeczeństwo jest spolaryzowane czy oburzone, wtedy sam to odczujesz, wyjdziesz na ulice i podejmiesz działanie.

Jest wiele badań, które opisujesz w swojej książce, które tego dowodzą. Emocje to też ważny element, kiedy opowiadamy o dezinformacji, mylnych czy fałszywych treściach. Można by wyciągnąć wniosek, że dla polityka, który zaczyna kampanię wyborczą, bardziej efektywne może być przesunięcie debaty na tory emocjonalne, a nie – rozmowa o faktach. To jest moment, w którym fałszywe treści mogą wejść do debaty. A my jesteśmy na nie podatni, kiedy jesteśmy oburzeni. To również pokazały nam badania. To, co było dla mnie interesujące, to to, że w 2015 roku Robert Epstein, psycholog z Cambridge Center of Bahavioral Studies, był osobą, która zaobserwowała, że Donald Trump w zasadzie może mieć spore szanse w wyścigu o stołek prezydencki w Stanach Zjednoczonych.

Tak… Kilka osób przytoczyło ten argument około 2015, 2016 roku: psychologowie zajmujący się polityką i parę osób w Dolinie Krzemowej, którzy niepokoili się o wpływ platform społecznościowych. Wszyscy ich wyśmiali. I muszę przyznać, że byłem jedną z tych osób. Myślałem, że media społecznościowe nie mogą być tak wpływowe. Jak mogłyby zmienić myślenie tak wielu ludzi? Oczywiście, politycy już wcześniej kłamali, by zdobyć głosy, zawsze starali się wywołać oburzenie czy nienawiść do tych po „drugiej stronie barykady”. Ale to, co się zmieniło od 2015 czy 2016 roku, to to, że wielu ludzi szuka informacji o aktualnych wydarzeniach w mediach społecznościowych. To, czego doświadczali, nie było doświadczeniem informującym, ale w pierwszej kolejności – emocjonalnym. I dopiero później przetwarzali informację w konkretny sposób. I to było szokujące. Muszę przyznać, że ten zabieg jest skuteczny w zmienianiu myślenia u ludzi i w nakłanianiu ich do uwierzenia w mylne i fałszywe treści. Mówię tu nie tylko ludziach, którzy są do tego skłonni, ale również o takich jak ty i ja: ludzi wyedukowanych, albo takich, którzy lubią myśleć o sobie jako o osobach inteligentnych i zainteresowanych tym, co się dzieje na świecie. 

Dam Ci przykład innego badania, które wyszło w trakcie prezydentury Trumpa. Badacze zaprosili grupę republikanów: czyli ludzi, którzy na niego głosowali. Poprosili, aby spojrzeli na tweety i posty Donalda Trumpa oraz innych republikanów, które szerzyły kłamstwa i mylne treści o uchodźcach i migrantach. Jeśli prezentowano te twierdzenia bez kontekstu, większość badanych, nawet ci, którzy głosowali na Donalda Trumpa, zapytani: „Czy to prawda?”, odpowiadali, że nie. Kiedy mieli chwilę, żeby to przemyśleć, włączali rozsądek i wiedzieli, że to, co czytają, nie jest prawdą. Kiedy pytano ich, czy chcieliby się podzielić tą informacją, odpowiadali: „Oczywiście, że nie, ponieważ wiem, że to nieprawda”.

Kiedy powtórzono ten eksperyment z inną grupą ludzi, zaprezentowano te same treści z jedną różnicą: dodano oprawę taką jak w mediach społecznościowych: widać było liczbę lajków i udostępnień. Sugerowały, że wiele osób w ich społeczności się nimi podzieliło z innymi. Badacze zapytali, czy te informacje są prawdziwe i usłyszeli, że tak. Kiedy zapytali, czy uczestnicy udostępniliby dalej tę informację na Facebooku, usłyszeli: „Oczywiście, ludzie powinni o tym wiedzieć”. 

Zatem wystarczy przedstawić informację tak, jakby była częścią jakiejś społeczności, jakby to ona Cię o tym informowała. To skuteczniejsze niż tradycyjne sposoby. Wtedy wiadomość omija części naszego mózgu odpowiedzialne za myślenie. Przez to jesteśmy bardziej skłonni w nie uwierzyć. To była duża zmiana, która nastąpiła właśnie w 2015, 2016 roku na całym świecie.

Ten moment, w którym informacja omija nasze… ośrodki rozsądniejszej oceny sytuacji, nazywany jest „efektem iluzji prawdy”. Jak jest on powiązany z dezinformacją, fałszywymi treściami i teoriami spiskowymi? Możesz wytłumaczyć ten mechanizm? Jak to jest, że teorie spiskowe, nawet te najbardziej szalone, potrafią ominąć nasz rozsądek? Bo to również może być powiązane z polityką.

To świetna uwaga, cieszę się, że o tym wspomniałaś. Ogólnie jesteśmy całkiem nieźli w ocenianiu, czy napotkana przez nas informacja jest prawdziwa, czy nie. I to niezależnie od naszych poglądów politycznych czy poziomu edukacji. Ale kiedy dochodzi do tego kontekst społeczny i wydaje nam się, że ta informacja pochodzi od naszych przyjaciół, szczególnie gdy natykamy się na nią raz za razem, jest bardziej prawdopodobne, że w nią uwierzymy. Nieważne, jak jest niedorzeczna. I jest to skuteczniejsze, jeśli sposób komunikacji wywołuje konkretne emocje. Nie jakiekolwiek, ale w szczególności te związane z zagrożeniem grupy ludzi, „my kontra oni”, wściekłości spowodowanej jakimś pogwałceniem prawa moralnego… Wtedy „efekt iluzji prawdy” aktywuje się i zaczynamy wierzyć w te informacje, ponieważ wydaje nam się, że słyszymy o tym od wielu ludzi.

Muszę Ci się przyznać, że kiedy czytałem książkę na ten temat, zacząłem zauważać to w moim własnym życiu. Dajmy na to, usłyszałem, że Donald Trump zrobił coś złego, ale wersja wydarzeń, którą przekazali mi moi przyjaciele, była – powiedzmy – troszeczkę wyolbrzymiona. Nie zupełnie przekłamana, ale wyolbrzymiona o – powiedzmy – 10 czy 20 procent. Zauważyłem, że nawet jeśli przeczytałbym potem artykuł w gazecie, który dokładnie by opisywał to, co się stało, nadal w swoim sercu wierzyłbym w wersję wyolbrzymioną. Ponieważ dostarczył mi jej ten społeczny bodziec, który był o wiele silniejszy. W efekcie, świadomie czy nieświadomie, wybrałbym właśnie tę wersję wydarzeń.

Jedną z teorii spiskowych, z którą jako fact-checkerzy spotykamy się nawet w Polsce, jest Pizzagate.

Łał! Słyszeliście o tym też w Polsce?

Tak… 

O mój Boże… Nie…

Oczywiście, że tak!

Bardzo mi przykro… (śmiech)

Piszemy o tym analizy.

Bardzo przepraszam za nasz popaprany kraj, który paprze Wasz kraj. (poważnie) Naprawdę za to przepraszam.

Och, nie przejmuj się. Myślę, że takie rzeczy dzieją się nie tylko w Stanach. Ale i mnie jest przykro, że musicie jakoś funkcjonować w rzeczywistości, w której istnieje teoria o Pizzagate. Dla tych, którzy nie zetknęli się z tą historią… Pizzagate to opowieść o tzw. „deep state” i o politykach, którzy nie należą do partii, którą reprezentował Donald Trump, bo to ważny kontekst. O politykach, którzy są częścią siatki handlu dziećmi. W jakiś sposób jest to połączone z konkretną pizzerią, w piwnicy, w której miało dochodzić do dobijania targów. 

Mieszkałem kiedyś pięć minut na nogach od tej pizzerii. Była dosłownie za rogiem. 

W porządku, więc być może jesteś w stanie potwierdzić, choć nie jestem pewna, czy to jest pierwsza rzecz, o którą pytasz, kiedy wchodzisz do pizzerii, a mianowicie to, czy tam w ogóle była piwnica. Bo z tego, co wiem, okazało się, że nie ma. Ale ludzie wierzyli, że dzieją się tam okropne rzeczy. 

Tak. Historia tej teorii spiskowej zaczyna się w 2016 roku, kiedy w Ameryce trwała kampania wyborcza, w której startowali Donald Trump i Hilary Clinton. Działo się to na forum internetowym 4chan. Nie jest ono tak duże jak Facebook, Twitter czy YouTube, ale jest bardzo popularne u tzw. superużytkowników, czyli u ludzi, którzy spędzają masę czasu w internecie. Od 2008 roku było ono swego rodzaju wylęgarnią równych aspektów tego, co składa się na tzw. kulturę internetową. 4chan jest trudny w obsłudze, owiany aurą tajemniczości, ale bardzo popularny w konkretnej niszy.

Ja zawsze opisuję 4chana jako ten najciemniejszy kąt Twojego internetu.

Tak jest, ale najśmieszniejsze jest to, że na początku się na taki nie zapowiadał. W 2007, 2008 roku było to zabawne forum internetowe, gdzie wszyscy użytkownicy są anonimowi. Za każdym razem, kiedy coś postowałaś, trzeba było dołączyć zdjęcie, tak więc było na nim wiele memów i roznosiły się one zależnie od tego, jak mocno były w stanie zaangażować użytkowników. Tak więc była to prosta, prymitywna wręcz, wersja algorytmu Facebooka, gdzie masz ogromną społeczność, która goni za uwagą. Ponieważ to jest najważniejszy surowiec internetu: możesz w nim dostać atencję i uznanie, które sprawią, że poczujesz się lepiej, poczujesz się coś wart.

4chan był pierwszy kotłem społeczności superużytkowników, którzy byli niesamowicie młodzi. I mam na myśli tutaj taki przedział wiekowy jak 13 do 20, może 22 lat. Wszyscy spędzali mnóstwo czasu przed komputerem. Nie mówię tego, żeby oczernić ludzi, którzy dorastali przed ekranem – (na uśmiechu) sam jestem jednym z nich, ale na 4chanie można było znaleźć wielu ludzi, którzy być może czuli się nieco zagubieni w świecie? Może nie do końca wiedzieli, gdzie jest ich miejsce? 

Trochę niedopasowani.

Tak, dokładnie. I właśnie dlatego można było tam natknąć się na żarty i prowokujące dowcipy, ale było to podszyte pewnym przekonaniem, że świat nas nie rozumie i dlatego musimy stworzyć własną społeczność. Objawiało się to też brakiem zaufania do świata zewnętrznego, w tym do instytucji. Przez lata to wszystko narastało, radykalizowało się, aż w końcu przerodziło się w ekosystem młodych, wściekłych, prawicowych mężczyzn, którzy wszędzie wietrzą spisek. Stało się tak, dlatego że 4chan istniał w idealnie szczelnym systemie poszukiwania i pozyskiwania atencji. Użytkownicy odkryli, że najwięcej uwagi można przyciągnąć treściami pełnymi nienawiści, strachu, oburzenia, zagrożenia tożsamości: „my kontra oni”, i to wszystko na fundamentach przekonania, że wypowiadamy się w imieniu dużej grupy młodych mężczyzn, których z czegoś wywłaszczono. Tak więc wściekasz się na polityczny establishment, dorosłych, kobiety, mniejszości, migrantów czy uchodźców.

Tak dochodzimy do 2016 roku. Może w ramach żartu, może z nudów użytkownicy 4chana zaczynają publikować posty o różnych teoriach spiskowych z Hillary Clinton i demokratach w rolach głównych. Jak sama powiedziałaś: o oponentach Donalda Trumpa, bardziej liberalnych, lewicowych. Któryś z użytkowników opublikował wyciekłe maile szefa sztabu Hillary Clinton o robieniu pizzy i zorganizowaniu zbiórki pieniędzy we wspomnianej przez nas wcześniej niewinnej pizzerii w Waszyngtonie. Dla zabicia czasu inni też publikowali te maile, które – jak wiemy teraz – wyciekły w wyniku ingerencji rosyjskiego wywiadu, aby pomóc Trumpowi w kampanii. To był początek tworzenia naciąganych teorii spiskowych o pizzerii, która jest centrum jakichś niecnych działań, w które angażuje się polityczna elita.

W mailach można było odnaleźć skróty, takie jak CP, odnoszące się do „cheesse pizza”: pizza serowa, ale w niektórych zaułkach internetu CP to również skrót od „child pornography”: pornografii dziecięcej. Użytkownicy 4chana mówili między sobą o tym, że to dowód na rozbudowany spisek. Oczywiście brzmi to śmiesznie. Ale jeśli odwiedzasz 4chana często i cały czas dusisz się w takich treściach, to w końcu uwierzysz w iluzję prawdy. Tym bardziej że masz poczucie, że w tym uczestniczysz. I to jest coś, co cały czas obserwujemy: w teorie spiskowe w mediach społecznościowych, takie jak QAnon, zaangażowani są ludzie, którzy nie tylko je czytają, ale szukają dowodów na ich istnienie i udostępniają je w sieci. Traktują to jak swoją misję. A to sprawia, że tworzą się więzi społeczne. Mają poczucie, że biorą udział w heroicznym zmaganiu z nikczemnym wrogiem.

Teorie spiskowe, które przekazywali między sobą użytkownicy 4chana, nie tylko w końcu pojawiły się na Facebooku, Twitterze czy YouTubie i kompletnie je zalały tuż przed wyborami w 2016 roku. One również zachęcały do działania. Mówiły: „musimy coś zrobić, bo jesteśmy sami. Nikt nie ma pojęcia, co się dzieje. Nie ma władzy, której moglibyśmy zaufać”. Jeden z użytkowników śledził tę historię na YouTubie, który w 2016 roku był największą platformą na świecie i możliwe, że nadal nią jest. Postanowił wziąć odpowiedzialność na siebie. Pomyślał, że musi uratować dzieci zamknięte w piwnicy pizzerii w Waszyngtonie. Zapakował do samochodu broń, wparował do budynku pizzerii – a zaznaczam, że to bardzo sympatyczna okolica. Wszyscy wybiegli z pomieszczenia, nie wiedzieli, czego się spodziewać po człowieku z naręczem broni palnej. A on podszedł od drzwi, które według zdjęć rozprowadzonych w sieci, miały prowadzić do sekretnego lochu, gdzie Hillary Clinton przetrzymuje dzieci. Strzelił – na szczęście po drugiej stronie nikogo nie było. I okazało się, że za nimi jest tylko schowek oraz przejście do serwerowni.

Kiedy ten człowiek to zobaczył, natychmiast sam się zgłosił na policję. To był nierealny moment: stał tam z bronią w ręku i uświadomił sobie, że to wszystko było kłamstwem, że on sam się oszukał poprzez media społecznościowe. Myślę, że to był pierwszy, duży sygnał ostrzegawczy, że dzieje się coś bardzo niebezpiecznego. Że nie skończy się na tym, że ludzie, którzy wierzą w głupoty, poprzestaną na wyświetlaniu ich na ekranie komputera, ale że te treści zmienią politykę i społeczeństwo jako całość. Co, moim zdaniem, już się wydarzyło.

Tymczasem na YouTubie. Co z teoriami spiskowymi robi algorytm tej platformy?

O mój Boże… (nerwowy śmiech) YouTube póki co jest najgorszy. Daleko wyprzedza swoich konkurentów. To coś, co potwierdzali wszyscy, z którymi rozmawiałem: każdy badacz, mieszkaniec Doliny Krzemowej, każdy z nich powiedział, że jako firma YouTube jest najbardziej lekkomyślny, że robi najmniej w celu zminimalizowania szkody i że na ten moment ich algorytm jest najpotężniejszy. Jak działa? Jestem rowerzystą, więc czasem oglądam sobie recenzje nowych modeli sprzętu albo sprawdzam jakiś szlak, który chciałbym przejechać, albo oglądam wyścigi. Jeśli będziesz oglądała materiały o rowerach, system automatycznie podrzuci ci inne materiały na ten temat. Nie chce, żebyś obejrzała tylko jedno wideo. Chce, żebyś oglądała je godzinami. Z tym że nie będzie podsuwał ci losowych materiałów o rowerach, ale wybierze takie, które są ciut bardziej angażujące, a zarazem mocniejsze w przekazie. Tak więc zaczynam od recenzji sprzętu, a kończę na 20-minutowym montażu wypadków rowerzystów. To materiały intensywniejsze i emocjonalne, które są nam podsuwane stopniowo.

W kontekście wideo o tematyce politycznej taki mechanizm może być bardzo niebezpieczny. Istnieją nawet badania, które pokazują, że działo się tak w wielu krajach: w Stanach Zjednoczonych, we Francji, w Japonii, w Niemczech i w Brazylii. Zawsze przebiegało to tak samo. Jeśli oglądałaś jakikolwiek materiał polityczny na YouTubie nieuniknione było to, że w którymś momencie zaczynał Cię on delikatnie popychać w stronę wideo w duchu ultraprawicowym, konspiracyjnym, w którym były mylne treści opowiadające o swego rodzaju „złych siłach”. Podsuwał Ci dezinformację medyczną, kłamstwa o uchodźcach, migrantach, rasie i podziałach religijnych. Nakłaniał ludzi do oglądania ich, ponieważ system zorientował się, że angażowanie ludzi przez pokazywanie tego konkretnego sposobu postrzegania świata jest świetnym sposobem na zatrzymanie ich przy ekranie na całe godziny.

W książce za przykład podaję Brazylię, gdzie poprzednim prezydentem był Jair Bolsonaro [czyt. Jair Bolsonaro]. Wybrano go w 2019 roku. Rozmawiałem z wieloma ludźmi z jego własnej partii politycznej: wolontariuszami czy członkami. Ciągle słyszałem, że nigdy nie byli zaangażowani politycznie, dopóki nie zaczęli oglądać YouTube’a. To wcale nie musiały być materiały okołopolityczne. Ale wtedy algorytm YouTube’a zaczął pokazywać im treści skrajnie prawicowe: bardziej gniewne, konspiracyjne — choć oni ich tak nie nazywali, ale ja wiedziałem, że o to chodzi. A później nieuchronnie zaprowadziło ich to do Bolsonaro. Powtarzanie informacji, wciągnięcie ich w ten zamknięty obieg, w końcu ich przekonało.

Mówisz o tak zwanym alt-righcie, ultraprawicy czy skrajnej prawicy. Ale czy to dotyczy też lewicy, liberałów?

Cóż… Tak. W tym sensie, że algorytmy zawsze będą Cię popychać do oglądania ekstremalnych i coraz bardziej emocjonalnych treści. Do wizji świata, która jest bardziej czarno-biała. Że ci drudzy są źli i nie ma już dla nich ratunku. Do zajmowania coraz bardziej radykalnego stanowiska. Jednakowoż ten efekt jest znacznie bardziej wyraźny w przypadku prawicy. Kolejne badania wykazywały, że algorytm popycha osoby na prawo, a sami prawicowcy się radykalizują. Zdarzają się nawet przypadki zmiany poglądów z lewicowych na prawicowe. Jest kilka teorii, dlaczego tak się dzieje, ale pogląd, co do którego występuje ogólna zgoda, mówi o tym, że powodem jest emocjonalny ton skrajnej prawicy odnoszący się do „my kontra oni”, do plemienności, nienawiści czy strachu, które świetnie się niosą na platformach społecznościowych. Są one zaprojektowane tak, żeby sztucznie je wyolbrzymiać.

Mówiliśmy o teoriach spiskowych, o tym, jak działa algorytm YouTube’a, ale nie mówiliśmy jeszcze o tym, jak działa algorytm, który szereguje treści w wyszukiwarkach internetowych, i pozycjonując je w wynikach, może wpływać na nasze postrzeganie świata.

Tak, istnieją badania, które dotyczą pozycjonowania w wynikach Google. Nie jest to efekt tak wyraźny jak te, które omówiliśmy wcześniej, ale kilka badań pokazało, że prawdopodobnie nieświadomie bardziej zaufasz informacji, która będzie na górze listy wyników. 

Mała, prosta rzecz, a już może jakoś na nas wpłynąć. Są też inne rzeczy, które mogą być wykorzystywane w kampaniach. I znam już przykłady z historii: chyba jednym z najbardziej wyrazistych jest Cambridge Analytica, która zbierała dane, które zostały wykorzystane w kampanii za wyjściem Wielkiej Brytanii z Unii Europejskiej. Później się dowiedzieliśmy, jaka strategia za tym stała. Że starano się sprowadzić debatę na tony emocjonalne zamiast merytoryczne. Że skupiano się na przekonaniu do głosowania ludzi, którzy nie byli jeszcze zdecydowani. I używano do tego np. informacji wyciągniętych z kontekstu czy pobudzających emocje. TO jest coś, z czym w Polsce możemy się spotkać przed wyborami na jesieni. I jest to coś, z czym na pewno spotkali się Amerykanie. 

W swojej książkę opisałeś badanie, które szczególnie mnie zainteresowało, bo zajęło się językiem treści, a ja zauważyłam, że język mediów społecznościowych się zmienił – ze względu na monetyzację treści – a nas pociąga konkretny rodzaj komunikowania. Pisałeś o eksperymencie dotyczącym języka moralno-emocjonalnego, który odnosi się do niechęci, wstrętu czy… wdzięczności. Jego celem jest nie tylko poinformowanie o czymś, lecz także jednoczesne wydanie osądu.

Było takie badanie, które polegało na tym, że przetestowano wiele różnych tweetów. Używano w nich innych zestawów słów, różnych odniesień do emocji i polityki, żeby zobaczyć, czy będą miały lepsze zasięgi. Okazało się, że wiele słów czy przekazów, które – wydawałoby się – wpłyną na zasięgi, takiego wpływu nie miało. Elementy prawicowe czy lewicowe, gniewne, smutne – nie było to istotne. Ale jeśli w tych treściach pojawiło się słowo moralizatorsko-emocjonalne tweet rozprzestrzeniał się 20 procent skuteczniej. 20 procent na jedno takie słowo. To ogromna różnica.

Tutaj chodzi o coś bardziej precyzyjnego niż gniew. Chodzi o wyraz zbiorowego gniewu w imieniu jakiejś konkretnej grupy z powodu przekroczenia zasad społecznych. Jeśli mówisz: „Jestem wściekła na tego polityka, ponieważ jest kłamcą i nas wrabia” wyrażasz gniew zbiorowy w imieniu swojej grupy. To coś więcej niż zwykły gniew. Kiedy zalogujesz się do mediów społecznościowych, możesz to zobaczyć wszędzie, dlatego, że takie treści są zasięgowe. To zmieniło informacje, które dostajesz: za każdym razem, kiedy dowiadujesz się czegoś z internetu, prawdopodobne masz do czynienia z językiem, o którym rozmawiamy. A to wpływa na Twoje postrzeganie danej sprawy.

Trzeba też pamiętać o tym, że media społecznościowe mają charakter partycypacyjny. Rozkwitają dzięki użytkownikom, którzy produkują treści. Kiedy sama wyrażasz więcej oburzenia — a wszyscy to robimy, nawet jeśli polega to tylko na udostępnieniu czyjegoś posta – sama zaczynasz mocniej go odczuwać. Istnieją takie badania, w których okazało się, że ludzie, którzy wyrazili jakiś rodzaj moralnego oburzenia na Twitterze ze względu na to, że dzięki swoim postom uzyskali uznanie społeczności przez lajki, zaczęli częściej wyrażać oburzenie nie tylko w sieci, lecz także offline. I to nawet jeśli wcześniej nie byli skłonni do takich emocji. Media społecznościowe zaczęły zmieniać ich naturę. A kiedy poddajesz się takim emocjom, trudniej Ci odnieść się do rozsądku, niuansów, szarych stref. Sam się popychasz w stronę ekstremum.

Kiedy przeniesiemy tę informację na grunt kampanii wyborczych… Stany Zjednoczone to kraj, w którym kiedyś zwyciężył Donald Trump. 

O tak. 

To był kandydat, który był postrzegany jako ktoś, kto… jak to powiedzieć… był rzucający się w oczy i kontrowersyjny w swoich wypowiedziach.

Tak było.

Kiedy staram się połączyć te kropki, to wychodzi na to, że żyjemy albo istnieje takie zagrożenie, że możemy żyć w świecie, w którym już nie liczy się to, co ktoś powie, tylko jak to powie. I to jest ważniejsze. A to jest niesamowicie ważne w świecie polityki, prawda? Donald Trump może być jednym z dowodów. Kiedy sprawdzaliśmy jego wypowiedzi, okazywało się, że wiele z nich nie miało poparcia w faktach. Kiedy myślę o tym, co się dzieje w Polsce, a jednym z zadań Demagoga jest sprawdzanie wypowiedzi polityków, to okazuje się, że w ubiegłym roku wśród wypowiedzi, które sprawdziliśmy, te prawdziwe były w mniejszości. Jak możemy temu zapobiegać? Możemy jakoś powiedzieć naszym politykom, żeby przestali na siebie wrzeszczeć i zaczęli mówić o faktach? Czy jesteśmy już na tym etapie, czy jeszcze wiele przed nami?

To słuszna uwaga. Te bodźce, które dotyczą polityków, dramatycznie się zmieniły w ostatnich 10 latach. Media społecznościowe to nie jedyny powód, ale są ogromną, ogromną częścią tych zmian. Kiedyś, kiedy politycy starali się zdobyć głosy, komunikowali się z wyborcami głównie przy pomocy mediów dominujących. Te instytucje nie są idealne, to na pewno, ale ogólnie rzecz biorąc, w ich interesie są weryfikacja informacji i precyzyjne jej przekazanie w taki sposób, aby ona celowo nie podżegała, nie szkodziła i nie wywoływała podziałów społecznych. Wraz ze wzrostem popularności mediów społecznościowych politycy w pierwszej kolejności komunikują się z potencjalnymi wyborcami przez platformy społecznościowe ponieważ wielu z nas właśnie tam szuka informacji. Nawet jeśli osobiście nic nie publikują, to wiedzą, że przemówienie albo wypowiedź dotrze do ich odbiorców przez media społecznościowe. Nauczyli się nie tylko tego, że platform, jako ucieleśnienia algorytmów i użytkowników, nie obchodzi dezinformacja przekazywana za ich pośrednictwem, lecz także, że same zachęcają ku fałszywym treściom, kłamstwom, ekstremizmowi. 

Jedno badanie przyjrzało się temu, co platformy promowały w Stanach Zjednoczonych przed wyborami w 2016 roku. I okazało się, że – Donalda Trumpa. I to z ogromną przewagą nad Hillary Clinton. Łatwo jest na to spojrzeć tak, że: „Hej, może po prostu ludzie bardziej go lubili”, ale(!) te badania pokazały, i podobnie było również w innych krajach, że kandydat, który w mediach społecznościowych prezentował poglądy ekstremalne i dzielące społeczeństwo, jest promowany znacznie bardziej, niż wskazywałaby na to jego realna popularność wśród wyborców.

Odpowiadając na Twoje pytanie, co możemy z tym zrobić… Myślę, że nasza polityka znajduje swoje odbicie w mediach społecznościowych, które wcześniej celowo zniszczyły takie rzeczy jak media głównego nurtu i ich kontrolę nad faktami, prawdą i dobrem ogółu. Media społecznościowe to środowisko, w którym politycy, aby wygrać, w jakiś sposób muszą kłamać. Muszą dzielić, muszą mieć ekstremalne poglądy, bo to zostanie nagrodzone. Dopóki nasza polityka i platformy będą działać w ten sposób, myślę, że będzie bardzo trudno jakiejkolwiek formie fact-checkingu walczyć z tym problemem.

Cóż, w końcu był jakiś powód tego, że bot Tye, uruchomiony na Twitterze przez Microsoft, po… nie pamiętam dokładnie, po ilu godzinach, napisał, że „Donald Trump jest naszą jedyną nadzieją”. 

Wydaje mi się, że to było w 2016 roku. Zadaniem bota było komunikowanie się z użytkownikami. To była bardzo wczesna wersja nowej technologii opartej na sztucznej inteligencji, którą dzisiaj nazywamy „large language model”. Ludzie tweetowali do bota, a bot udzielał odpowiedzi, które uważał za najlepiej imitujące przeciętną, przewidywalną istotę ludzką. Skanował w tym celu Twittera, analizował dane i zgadywał, jaka będzie najlepsza odpowiedź na dane pytanie. Bardzo szybko przekształcił się w skrajnie prawicowego, białego nacjonalistę. Promował teorie spiskowe, opowiadał, jak świetny jest Donald Trump i doprawiał to wiadomościami pełnymi nienawiści. Po części dlatego, że mała grupa niesfornych użytkowników celowo karmiła go takimi treściami, ale również ze względu na to, co od dłuższego czasu powtarzali badacze: że nastroje panujące na tych platformach, nawet jeśli w naszym zakątku nie jest to tak wyraźne, zachęcają do ekstremizmu, nienawiści. Ten bot odsłonił prawdziwą duszę Twittera, który jako narzędzie był jedną z raczej lewicowych platform, biorąc pod uwagę bazę użytkowników. Ale odkrył zupełnie inne treści, ponieważ właśnie taki kierunek jest kształtowany przez platformę.

Więc… Na ten moment to algorytm wybiera naszych przywódców?

Ludzie nadal są naprawdę ważnym elementem tego procesu. Człowiek z Doliny Krzemowej, który pewnie trochę wkurzyłby się moimi reportażami, powiedziałby: „Powodem, dla którego media społecznościowe promują te treści, jest to, że ludzie je lubią i reagują na nie”. To częściowa prawda. Ludzie zazwyczaj nie lubią tych treści, sprawiają one, że są zdenerwowani albo nieszczęśliwi, ale prawdą jest to, że reagujemy na ten rodzaj informacji. A kiedy reagujemy na nie w sieci, to reagujemy też w prawdziwym świecie. Ponieważ – jak wielokrotnie podkreślali psychologowie społeczni, z którymi rozmawiałem – sami mamy wady. Ludzie mają pewne wrodzone tendencje do zachowań pełnych podejrzliwości, generujących podziały, nienawiść. W ciągu tysięcy lat budowania cywilizacji nauczyliśmy się, jak zarządzać tymi impulsami, jak je kontrolować i powstrzymywać. Tymczasem media społecznościowe je w nas wyzwalają. Oba te elementy: algorytmy i ludzka natura, działają w swego rodzaju perfekcyjnej, okropnej burzy, która wyciąga z nas to, co najgorsze. To rodzaj sprzężenia zwrotnego pomiędzy naszymi najgorszymi instynktami a potężną, destrukcyjną technologią, która pcha scenę polityczną w bardzo konkretnym kierunku.

Kiedy rozmawiamy o algorytmach… Przenieśmy się na chwilę z klimatów science fiction w rejony fantasy… Myślisz, że da się wytresować tego smoka? Czy raczej trzeba go ubić? 

(śmiech) To ogromna dyskusja, która cały czas trwa. Rozmawiają o tym ludzie w świecie technologii, którzy czują to, co ja i ty: zaniepokojenie tym, co dzieje się w mediach społecznościowych. Pytają o to, czy istnieje droga, aby zmienić media społecznościowe tak, aby były zdrowsze, bezpieczniejsze. A może to, że działają, jak działają, jest ich cechą wrodzoną i jedyne, co możemy zrobić, aby się przed nimi uratować, to próbować je ograniczać na tyle, na ile się da? 

W wielu środowiskach ludzie porównują media społecznościowe do papierosów. Argumentują, że nie ma wielu sposobów na to, aby papierosy (czy to, co w nich jest) były zdrowe. Zawsze będą niebezpieczne i niezdrowe dla Ciebie. Zawsze będą wywoływać raka. To niekoniecznie znaczy, że należy wprowadzić zakaz palenia dla wszystkich, ale znaczy to, że aby ludzie byli mniej wystawieni na papierosy, należy utrudnić do nich dostęp. Nie dasz papierosów dzieciom, podwyższysz trochę cenę, okleisz je ostrzeżeniami. Część ludzi ma takie podejście do mediów społecznościowych. Inni wierzą, że z tej technologii może powstać coś dobrego. I jest sporo dobrego w tym, że mogą one połączyć nas w systemach kierowanych przez użytkowników. 

Wyzwanie kultywowania zdrowszych mediów społecznościowych będzie oparte na przemianach w samych firmach, a co za tym idzie: na zmianie bodźców finansowych i ekonomicznych, które na nie działają i rządzą całymi platformami. To bardzo trudne, ponieważ na jakimś poziomie oznaczałoby to zmianę samego kapitalizmu w Stanach Zjednoczonych. Kapitalizmu, który pcha platformy społecznościowe do zmaksymalizowania zaangażowania użytkowników za wszelką cenę. Czy taka zmiana może nastąpić? To ważne pytanie. Pojawiło się już kilka ciekawych pomysłów, ale trudno powiedzieć, czy będą skuteczne.

Czy w tym momencie wiesz, co ty byś zrobił z algorytmem?

Można podjąć działania na poziomie jednostki. Ja nie mam mocy zmienić mediów społecznościowych. To, co robię, i wiem, że wiele osób robi podobnie – również tych, które pracują w Dolinie Krzemowej dla firm dostarczających media społecznościowe – to wszyscy próbujemy drastycznie ograniczyć korzystanie z tych platform. Staram się traktować je jak papierosy, jak coś, co jest dla mnie niebezpieczne i szkodliwe. Usunąłem z telefonu wiele aplikacji. Zmieniłem ekran z kolorowego na skalę szarości – w ten sposób jest mniej uzależniający. Łatwiej przestać przewijać posty. Staram się jak najmniej czytać i publikować w mediach społecznościowych. Wydaje mi się, że istnieje coś w rodzaju ruchu wśród ludzi, którzy badają, pracują albo piszą o tej technologii, żeby traktować ją jako coś potencjalnie niebezpiecznego. Każdy z nas z osobna powinien być bardzo ostrożny.

[po pożegnaniu]

Kiedy w pewnym momencie zacząłeś mówić o tym, że jesteś rowerzystą, i akurat rozmawialiśmy o teoriach spiskowych… Nie jestem pewna, czy to jest ogólnoświatowe powiedzenie, ale na pewno mamy je w Polsce. Aby wyśmiać jakąś nieprawdopodobną opowieść, w tym właśnie teorie spiskowe, mówimy, że „Tak, a za wszystkim stoją masoni, Żydzi i cykliści”. 

Poważnie? 

Tak, cykliści występują tutaj jako losowa grupa ludzi, która towarzyszy masonom i Żydom w rzekomym masowym spisku. 

Jako dowcip? Czy ludzie faktycznie w to wierzą?

Dowcip. Aby wyśmiać teorie spiskowe o masonach i Żydach, dodajemy jeszcze losowych cyklistów. Myślałam, że może w którymś momencie do tego nawiążesz.

(śmiech) Nie, nie! Ale chciałbym! To zabawne, nigdy wcześniej o tym nie słyszałem. Zastanawiam się, skąd się to wzięło?

Wspieraj niezależność!

Wpłać darowiznę i pomóż nam walczyć z dezinformacją, rosyjską propagandą i fake newsami.

*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter

Masz prawo do prawdy!

Przekaż 1,5% dla Demagoga

Wspieram

Dowiedz się, jak radzić sobie z dezinformacją w sieci

Poznaj przydatne narzędzia na naszej platformie edukacyjnej

Sprawdź!