Omawiamy ważne fakty dla debaty publicznej, a także przedstawiamy istotne raporty i badania.
Wikipedia – źródło wiedzy czy przekłamań?
Z okazji Dnia Wikipedii przyglądamy się najpopularniejszej internetowej encyklopedii.
Fot. Luke Chesser / Unsplash / Modyfikacje: Demagog
Wikipedia – źródło wiedzy czy przekłamań?
Z okazji Dnia Wikipedii przyglądamy się najpopularniejszej internetowej encyklopedii.
„Tylko nie korzystajcie z Wikipedii”. Kto nigdy nie usłyszał tego zdania w szkole lub na studiach, niech pierwszy rzuci kamieniem. Dla wielu z nas Wikipedia to jeden z pierwszych wyborów, kiedy szukamy odpowiedzi na jakieś pytania. Z drugiej strony często podkreśla się, że nie jest ona wiarygodna.
Kto tworzy Wikipedię?
Wikipedia na początku miała być tylko dodatkiem do Nupedii – internetowej encyklopedii, która zachowywała procedury recenzenckie, takie jak w przypadku papierowych publikacji (z tego powodu przez około rok udało się opublikować nieco ponad 20 artykułów). W przypadku Wikipedii każdy może stać się autorem haseł. Nie trzeba nawet utworzyć swojego konta, aby móc proponować zmiany do istniejących artykułów. Oznacza to, że jej treści nie tworzy np. wąskie grono ekspertów, lecz setki tysięcy anonimowych użytkowników (jeśli nie miliony, ponieważ ostatnie dane pochodzą sprzed ponad 10 lat).
Nie jest tak, że serwis działa na zasadach „wolnej amerykanki”, gdzie każdy robi, co mu się żywnie podoba. Artykuły publikowane na stronie mają być pisane w bezstronny sposób, dokumentując główne punkty widzenia. Ponadto mają bazować na wiarygodnych źródłach informacji, a autorzy powinni unikać osobistych doświadczeń i interpretacji. Mimo to w ciągu ostatnich lat doszło do wykorzystania Wikipedii do szerzenia fałszywych treści.
Henryk Batuta, czyli jak stworzyć postać historyczną na Wikipedii?
Walczył w wojnie domowej w Rosji i w Hiszpanii. Był członkiem Komunistycznej Partii Polski i nigdy nie istniał. Henryk Batuta, bo o nim mowa, jest jednym z najstarszych dowodów na to, że gdy pozwala się społeczności tworzyć i edytować treści, tworzy się pole do mistyfikacji.
Batuta urodził się dwukrotnie – oficjalnie w 1897 roku, a tak naprawdę w listopadzie 2004 roku. Wtedy to na Wikipedii pojawiło się hasło dotyczące tej rzekomej historycznej postaci. Jak opisała Gazeta Wyborcza, za powstanie „mordercy katolików” odpowiadała tzw. „Armia Batuty”. Grupa anonimowych użytkowników stworzyła tę postać sfrustrowana bezrefleksyjnym podejściem mieszkańców Warszawy do nazw ulic w mieście.
To, co miało być internetowym żartem, przetrwało w Wikipedii 15 miesięcy. Finalnie Batutę „uśmierciło” zdjęcie rzekomej tabliczki z jego imieniem i nazwiskiem na jednej z ulic stolicy. W rzeczywistości nazwa ulicy „Batuty” odnosi się do pałeczki używanej przez dyrygenta.
Średniowieczna kopalnia, która nigdy nie istniała
Stworzenie Henryka Batuty, choć imponujące, blednie jednak przy dokonaniach jednej z chińskich użytkowniczek Wikipedii. Jak opisał portal Sithx Tone, przez 10 lat udało się jej stworzyć ponad 200 artykułów, zawierających fałszywe informacje na temat historii Rosji.
Hasła stworzone przez użytkowniczkę o pseudonimie „Zhemao” dotyczyły wielu różnych rzeczy. Znalazł się wśród nich wpis o wielkiej kopalni srebra w Kaszynie, gdzie w szczytowym momencie miało pracować ok. 30 tys. niewolników i 10 tys. wolnych ludzi. Jak się okazało, takie miejsce nigdy nie istniało. Nieprawdziwa okazała się również wojna pomiędzy księstwem moskiewskim i twerskim z początku XIV w., która została skrupulatnie opisana w chińskiej wersji Wikipedii (podczas gdy w rosyjskojęzycznym odpowiedniku nie było po niej śladu).
Śledztwo przeprowadzone przez Wikipedię odkryło, że użytkowniczka korzystała z czterech fałszywych kont, aby podnieść wiarygodność swojej pracy. Ponadto artykuły napisane przez „Zhemao” opierały się na nieistniejących źródłach w książkach i pracach naukowych. Całość była pisana encyklopedycznym językiem w taki sposób, aby ukryć fałszerstwo.
Koniec końców wszystkie konta prowadzone przez fałszerkę zostały zawieszone, a większość z jej artykułów usunięto z serwisu.
Największa siła i słabość – wpływ czynnika ludzkiego na Wikipedię
Jak powinno zapisywać się tytuł nowej części Gwiezdnych Wojen i Star Treka? Jak wysoki był André the Giant? Czy Chopin był Francuzem, Polakiem, czy pół-Francuzem, pół-Polakiem? To tylko kilka przykładów dyskusji, które znalazły się w artykule Wikipedii, poświęconym „najgłupszym wojnom edycyjnym” („The Lamest Edit Wars”).
To, jak twórcy haseł potrafią spierać się o – wydawałoby się – drobne rzeczy, stanowi jedną z największych obaw związanych z korzystaniem z Wikipedii. Zawartość serwisu, w całości kreowana przez międzynarodową społeczność, jest podatna na czynnik ludzki. Trzymanie się przez cały czas założeń neutralności opisanej w pięciu filarach nie zawsze jest możliwe.
Przykładem na to mogą być różnice w poszczególnych hasłach w zależności od wersji językowej. Serwis factcheckingowy portalu Deustche Welle zwracał uwagę na to, w jaki sposób zajęcie Krymu przez Rosjan w 2014 roku zostało opisane w rosyjskiej i ukraińskiej Wikipedii. Ukraińcy opisywali to wydarzenie jako „aneksję Krymu”, podczas gdy wersja rosyjska mówiła o „przyłączeniu półwyspu do Federacji Rosyjskiej”. Ponadto większość rosyjskojęzycznych artykułów dotyczących tego tematu nie zawierało informacji o tym, że referendum dotyczące przyłączenia Krymu do Rosji zostało uznane za nieważne przez Ukrainę i większość państw na świecie.
Wikipedia może kreować sposób, w jaki postrzegamy bieżące wydarzenia. Tak było np. w przypadku protestów w Egipcie w 2011 roku, kiedy tłumy zebrały się na placu Tahrir w Kairze protestując przeciw rządom Hosniego Mubaraka. W eseju dla „The Conversation” prof. Heather Ford z University of Technology w Sydney opisuje, jak przez dekadę zmieniany był artykuł w Wikipedii dotyczący tych wydarzeń. Opisała, jak próbowano zmienić tytuł tekstu, nazywając wydarzenia „rewolucją” zamiast „protestami”. Próbowano także określić ramy czasowe, zmieniając je ze „stycznia – wciąż trwające” na „styczeń – luty”, aby pokazać, że cele rewolucji zostały osiągnięte.
Autorka tekstu podkreśla, że jest różnica pomiędzy akademickim podejściem do opisania danego zdarzenia a pisaniem bieżącej relacji, leżąc w wannie gdzieś w Kalifornii. Prof. Ford stwierdziła, że artykuły w Wikipedii, dotyczące wydarzeń historycznych, często są wynikiem walki o przedstawienie tego, co się komu przydarzyło i jakie miało to konsekwencje:
„Dowiedziałam się o znaczeniu samych Wikipedystów w kształtowaniu narracji, do której dopasowywane są poszczególne fakty. Wikipedyści kształtowali sposób, w jaki opisane zostało dane wydarzenie nie poprzez wstawianie fałszu, ale raczej poprzez framing i wybieranie faktów, które wspierały pewne narracje, a inne nie”.
Bezdomny rasista startuje w wyborach – czy Wikipedię można wykorzystać do celów politycznych?
We wrześniu 2020 roku w Kolumbii Brytyjskiej, będącej jedną z prowincji w Kanadzie, zostały ogłoszone przedterminowe wybory, które miały się odbyć miesiąc później. W okresie kampanii wyborczej wzrosła aktywność w artykułach w Wikipedii, dotycząca liderów dwóch konkurujących ze sobą partii: Johna Horgana oraz Andrew Wilkinsona. Jeden z użytkowników serwisu odpowiadał za dodawanie kontrowersyjnych informacji na temat jednego z kandydatów i usuwanie ich ze strony drugiego.
Im bliżej wyborów, tym spór pomiędzy użytkownikami Wikipedii się zaostrzał. Pod wpisem dotyczącym kandydatów zaczęto umieszczać obraźliwe określenia. John Horgan został określony jako „bezdomny”, a jego obywatelstwo zostało zmienione z kanadyjskiego na amerykańskie. Z kolei Andrew Wilkinson miał zostać niesłusznie nominowany jako kandydat w wyborach, a jego nazwisko zmieniono na „Bilkinson”. Ktoś dopisał również, że jest on „wyjątkowym rasistą”.
Jak opisało Stanford Cyber Policy Center, znaczna część aktywności – polegającej na modyfikowaniu treści w opisach obu kandydatów – pochodziła z adresów IP lub kont, które nie miały wcześniejszego wkładu w Wikipedię. Część z nich zostało utworzonych w październiku 2020 roku, czyli w miesiącu, na który zaplanowano wybory.
Autorzy analizy podkreślają, że w okresie od ogłoszenia wyborów do ich przeprowadzenia liczba wyświetleń stron obydwu kandydatów na Wikipedii wzrosła z mniej niż kilkuset do ponad 1 400 dziennie. Dlatego też osoby szukające informacji o politykach, które natknęły się na celowo zmodyfikowane hasła, mogły zostać zmanipulowane.
Kwaśne deszcze zabiły Królika Bugsa, czyli jak Wikipedia reaguje na kontrowersyjne tematy
W 2015 roku ukazała się praca naukowa opisująca, jak zmienia się treść artykułów na Wikipedii dotyczących konkretnych zagadnień. Badaczy zainspirowała sytuacja dotycząca ich wpisów o kwaśnych deszczach. Zauważyli, że regularnie zmieniała się treść artykułu: raz opisując to zjawisko, a raz nazywając je „stekiem bzdur”. Któryś z żartownisiów napisał nawet, że kwaśne deszcze „zabiły Królika Bugsa”.
Jak się okazało, artykuły dotyczące tematów, które były kontrowersyjne ze względów politycznych, mogły być zmieniane nawet kilka razy dziennie. W ten sposób czytelnik, który w odpowiednim momencie wejdzie do danego hasła w Wikipedii, może, hipotetycznie, dowiedzieć się, że np. globalne ocieplenie zmusiło Aquamana do migracji. Dlatego zdaniem naukowców ważne jest, aby uważnie korzystać z zasobów serwisu.
Jak mądrze korzystać z Wikipedii?
„Nie ma źródeł, którym można ufać bezkrytycznie. Badania pokazują, że Wikipedia zawiera teraz nie więcej błędów, niż tzw. źródła profesjonalne (…) są tam podane odnośniki – źródła, z których zaczerpnięto dane informacje. Tymczasem w klasycznych encyklopediach brak takich odnośników. Nie ma sposobu, żeby tam zweryfikować, skąd wzięła się dana informacja” – to fragment wypowiedzi prof. Dariusza Jemielniaka, wikipedysty i członka Rady Powierniczej Wikimedia Foundation.
Choć Wikipedia ma swoje wady, to mimo wszystko może być przydatnym źródłem informacji. Warto wiedzieć, na co zwracać uwagę, szukając wiarygodnych artykułów.
Co powinno uruchomić naszą czujność?
- Ostrzeżenia przed artykułem – Wikipedia sama oznacza, jeżeli z danym wpisem jest coś nie tak, np. brakuje cytowań w kluczowych zagadnieniach. Warto zwracać uwagę na tego typu ostrzeżenia.
- Własne opinie – wartościujące słownictwo i przemyślenia na dany temat obniżają wiarygodność danego wpisu.
- Celowe pomijanie pewnych tematów – jeśli artykuł celowo pomija pewne zagadnienia, np. krytykę danej firmy lub osoby, może to świadczyć o stronniczości.
- Problematyczne źródła – Brak wiarygodnych źródeł informacji, mała liczba odniesień czy fragmenty tekstów pozbawione przypisów.
- Wroga dyskusja – jeśli wymiana zdań dotycząca wpisu jest przepełniona złymi emocjami, może to świadczyć o tym, że autorzy nie byli w stanie dojść do konsensusu.
Czy sam tekst to wszystko?
Oprócz samej treści warto także spojrzeć na zakładkę „dyskusja” oraz sprawdzić historię edycji danego artykułu. Może się okazać, że wątpliwości dotyczące zagadnienia z danego hasła zostały już omówione przez społeczność twórców. Z kolei – sprawdzając jego historię – można zobaczyć, w jaki sposób wątek był rozwijany przez użytkowników i kiedy pojawiały się nowe treści.
Podsumowanie
Kontrowersji wokół Wikipedii przez lata zebrało się sporo. Nie oznacza to jednak, że osoby odpowiedzialne za stronę biernie przysłuchują się krytyce. W czasie kampanii wyborczej w Kolumbii Brytyjskiej doświadczeni użytkownicy oraz boty antywandalizmowe usuwali niepoprawne fragmenty z opisu kandydatów. Ponadto administracja dzięki możliwości blokowania edycji stron, może udaremniać próby podobnego wykorzystania haseł na Wikipedii w przyszłości.
Nie ma zatem co demonizować Wikipedii, ale warto pamiętać o tym, aby świadomie z niej korzystać, pamiętając o weryfikacji podanych źródeł.
Pobierz infografikę i podziel się faktami!
Wspieraj niezależność!
Wpłać darowiznę i pomóż nam walczyć z dezinformacją, rosyjską propagandą i fake newsami.
*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter