Informujemy o najważniejszych wydarzeniach ze świata fact-checkingu.
Grok jako fact-checker. Czy sztucznej inteligencji z portalu X można ufać?
Czatbot Elona Muska to hit jego platformy. Sztuczna inteligencja komentuje bieżące wydarzenia na równi z użytkownikami. Przed wyborami Polacy i Polki pytają Groka o sprawy polityczne. Czy aby na pewno jest on neutralnym arbitrem w takich kwestiach?

fot. Pexels i X.com / Modyfikacje: Demagog
Grok jako fact-checker. Czy sztucznej inteligencji z portalu X można ufać?
Czatbot Elona Muska to hit jego platformy. Sztuczna inteligencja komentuje bieżące wydarzenia na równi z użytkownikami. Przed wyborami Polacy i Polki pytają Groka o sprawy polityczne. Czy aby na pewno jest on neutralnym arbitrem w takich kwestiach?
X i Elon Musk. Inwestycje miliardera w sztuczną inteligencję
Modyfikacja polityki moderacji treści na Twitterze, do której doszło po przejęciu tego serwisu przez Elona Muska pod koniec 2022 roku, była dopiero zapowiedzią mających nadejść zmian. Nowy właściciel zwolnił także wielu pracowników firmy, zmienił nazwę na X i wprowadził opcję płatnych subskrypcji.
Kolejnym pomysłem Muska na serwis X była inwestycja w sztuczną inteligencję. Pod koniec 2023 roku wprowadzono funkcjonalność opracowaną przez xAI, kolejną z firm Muska. To właśnie wtedy z portalem X zintegrowano pierwszą wersję Groka, czatbota działającego dzięki wsparciu dużego modelu językowego.
Do czego służy Grok?
Wspomniany Grok to asystent oparty na sztucznej inteligencji, który został stworzony, aby odpowiadać na pytania użytkowników portalu X i pomagać im w wykonywaniu różnych zadań.
Zgodnie z obietnicami Elona Muska czatbot komunikuje się w sposób bezpośredni, zachowując przy tym poczucie humoru i posługując się sarkazmem. Narzędzie funkcjonuje jako dodatek do tej platformy – wszystkie korzystające z niej osoby mają dostęp do jego najnowszej wersji.
Co szczególnie interesujące, Grok ma możliwość przeszukiwania internetu oraz publicznych postów na portalu X. „Unikalną i fundamentalną zaletą Groka jest to, że posiada wiedzę o świecie w czasie rzeczywistym za pośrednictwem platformy X” – podkreślili jego twórcy. Zgodnie z opisem narzędzia te zdolności pozwalają na podawanie użytkownikom aktualnych informacji i spostrzeżeń na szeroki zakres tematów.
W jaki sposób rozmawiać z Grokiem?
Grokowi można zadawać pytania w prywatnej konwersacji (np. 1, 2) lub pod postami innych użytkowników platformy. W pierwszym z wymienionych przypadków rozmowę można udostępnić za pomocą linku, w drugim – odpowiedzi asystenta są widoczne publicznie (np. 1, 2).
Tak, warto weryfikować wypowiedzi polityków. Badania pokazują, że fact-checking zmniejsza dezinformację, wspiera wyborców i promuje odpowiedzialność, choć jego skuteczność bywa różna, zwłaszcza w spolaryzowanych grupach. Organizacje jak https://t.co/sPvb54hWgn czy PolitiFact… pic.twitter.com/9IE3YgLZOL
— Grok (@grok) April 2, 2025
Sami autorzy narzędzia ostrzegają jednak, że może ono podawać nieprawdziwe informacje lub pomijać pewien kontekst. Dlatego też zachęcają do niezależnego weryfikowania wszelkich otrzymanych informacji.
Asystent SI wyjaśnia polskie spory polityczne
Możliwości Groka są wykorzystywane w politycznych dyskusjach mimo ostrzeżeń (1, 2) jego twórców. Można odnieść wrażenie, że część osób traktuje jego odpowiedzi jako kluczowy argument w tego typu rozmowach (1, 2, 3, 4, 5).
Z pewnością wielu użytkowników prosi czatbota o zweryfikowanie konkretnych informacji. Problem w tym, że Grok w różnych sprawach się myli (1, 2, 3) lub przedstawia opinie (1, 2).
W ostatnim czasie media obiegł materiał wideo przedstawiający osoby obchodzące muzułmański ramadan na ulicach Gdańska. Gdy jeden z internautów zapytał Groka o wyjaśnienie, ten przekonywał, że to film nagrany w 2017 roku we Francji. Nawet gdy inni użytkownicy wypomnieli mu błąd, asystent SI trwał przy swoim werdykcie i alarmował o dezinformacji (którą w tym przypadku sam tworzył).
Komentarze czatbota są też przywoływane w trwającej kampanii prezydenckiej. Tak oto w zasięgowym wpisie internauci kłócili się z Grokiem o to, czy Sławomir Mentzen jest prorosyjskim politykiem. Innym razem asystent SI wprost napisał, że z jego perspektywy Trzaskowski „wydaje się lepszym wyborem na prezydenta Polski” niż Mentzen.
Poseł prosi Groka o wsparcie
Także polscy politycy rozmawiają z Grokiem i kierują do niego swoje pytania (np. 1, 2). Zrobił to m.in. poseł Polski 2050 i wiceminister cyfryzacji Michał Gramatyka. Polityk zadał botowi pytanie o to, dlaczego kandydat Konfederacji w wyborach prezydenckich Sławomir Mentzen boi się debaty z Szymonem Hołownią, kandydatem Trzeciej Drogi.
Cześć! Sławomir Mentzen może unikać debaty z Szymonem Hołownią, bo obawia się, że jego eurosceptyczne i antyimigracyjne poglądy zostaną źle odebrane. Hołownia, z doświadczeniem telewizyjnym, może go przyćmić w debacie. Mentzen, z rosnącym poparciem w sondażach, prawdopodobnie nie…
— Grok (@grok) March 28, 2025
W reakcji na tę wymianę zdań użytkownicy portalu zadali czatbotowi kolejne pytania. Dociekali, jakie poglądy ma Szymon Hołownia, pytali, dlaczego w przeszłości unikał debaty ze Sławomirem Mentzenem, prosili także o prognozy na temat politycznej przyszłości lidera Polski 2050.
Groźna pomyłka przed wyborami
Odpowiedzi Groka na pytania o politykę zdążyły już wzbudzić kontrowersje poza Polską. Do takiej sytuacji doszło m.in. przed wyborami prezydenckimi w USA, gdy użytkownicy portalu zapytali chatbota o zasady głosowania.
Grok niezgodnie z prawdą poinformował ich, że termin na oddanie głosu już minął.
Błąd został naprawiony dopiero po 10 dniach, w związku z czym część amerykańskich urzędników zaapelowała do firmy X, aby asystent SI korzystał z danych udostępnianych przez rządowe źródła informacji.
SI ocenia polityków. Ale czy ma rację?
Do podobnej sytuacji doszło, gdy jeden z użytkowników platformy zapytał Groka, który z indyjskich liderów politycznych jest uczciwszy. Czatbot bez oporów wskazał na polityka opozycji Rahula Gandhiego.
Stwierdził także, że w porównaniu do premiera Narendry Modiego ma on przewagę w zakresie wykształcenia. Dodatkowo uznał, że wywiady premiera wydają się być wyreżyserowane.
Zgodnie z doniesieniami medialnymi rząd Indii skontaktował się z twórcami narzędzia i zażądał wyjaśnień w związku z odpowiedziami udzielanymi przez czatbota i danymi użytymi do trenowania jego wiedzy. Do sprawy odniósł się Elon Musk, który skomentował sprawę krótko: emotikoną śmiechu.
SI zmieni debatę publiczną szybciej, niż nam się wydaje
Rozwój SI otwiera zupełnie nowy rozdział w komunikacji społecznej i życiu politycznym – tłumaczy dla nas socjolożka oraz politolożka dr Agnieszka Ziętek z Uniwersytetu im. Marii Curie-Skłodowskiej w Lublinie.
Ekspertka dodaje, że już dzisiaj możliwe jest identyfikowanie z pomocą sztucznej inteligencji manipulacji lub niespójności w debacie publicznej. Wszystko to dzięki wykorzystaniu m.in. błyskawicznej analizy danych czy porównywaniu wypowiedzi polityków z faktami. „[…] SI ma szanse na zwiększenie efektywności procesów nadzoru demokratycznego, oczywiście pod warunkiem, że zostanie odpowiednio zaprojektowana (czyli »nauczona«)” – zwraca uwagę.
„Generatywna SI zmienia zasady gry. Może wzmocnić demokrację, ale tylko wtedy, gdy zostanie wkomponowana w wartości takie jak transparentność, pluralizm i odpowiedzialność. Jeśli nie zadbamy o etykę, edukację i dobre regulacje – zamiast nowej ery dialogu, czeka nas epoka zautomatyzowanej, masowej propagandy”.
Kto decyduje o tym, co wie sztuczna inteligencja?
Dozę optymizmu dostarcza nam prof. Piotr Sankowski, informatyk z Uniwersytetu Warszawskiego: „Generatywna Sl ma szansę być rzeczywistym wsparciem w weryfikowaniu informacji, bo jest konstruowana tak, aby reprezentowała nie opinie, a rzeczywistą wiedzę”. Ekspert od sztucznej inteligencji zwraca jednak uwagę na związane z tym ryzyko.
„Organizacje konstruujące te modele mogą specjalnie zmanipulować informacjami, na których trenowany jest model tak aby nie były zgodne z rzeczywistością. Taka manipulacja może być zamierzona, a także co jest trudniejsze do zauważania, niezamierzona, tzn. modele mogą reprezentować poglądy reprezentatywne dla innej kultury, czy ustroju politycznego”.
W rozmowie z Demagogiem dr inż. Aleksandra Nabożny z Akademii Leona Koźmińskiego dodaje, że modele sztucznej inteligencji mogą mieć odchylenie w kierunku konkretnych opcji politycznych lub kandydatów.
SI powtarza po ludziach. Nie tylko prawdy
To, co Grok może nam „powiedzieć”, zależy od zbioru informacji, na którym jest uczony. Wybrane modele, w tym właśnie Grok, mają dostęp do informacji z internetu w czasie rzeczywistym, więc korzystają z tego kontekstu przy udzielaniu odpowiedzi. Mimo to pierwotny zbiór treningowy ma wpływ na sposób, w jaki model językowy podsumowuje treści pobrane z sieci. Między innymi z tego powodu badacze przestrzegają przed oferowaną przez sztuczną inteligencją iluzją obiektywności (1, 2, 3, 4, 5).
W tym kontekście dr Agnieszka Ziętek zwraca uwagę na funkcjonowanie algorytmów, które nie są neutralne i często uczą się na „uprzedzonych” danych. Wtóruje jej filozof dr Jan Piasecki – lider projektu badawczego Webimmunization dotyczącego cyberodporności na dezinformację – który wyjaśnia, że zawsze istnieje ryzyko, że do modelu dostaną się dane fałszywe albo powielające krzywdzące stereotypy czy zawierające opresyjny język.
Już teraz wiemy, że istnieją osoby i grupy, które starają się wpłynąć na pracę sztucznej inteligencji. Z niedawno opisanego przez nas śledztwa DFR Lab wynika, że rosyjska sieć propagandowa „Pravda” infekuje m.in. Wikipedię, notatki społeczności na platformie X oraz popularne czatboty fałszywymi informacjami na temat wojny w Ukrainie.
Czy Grok ma poglądy polityczne?
Dr inż. Aleksandra Nabożny wyjaśnia, że w ramach procesu uczenia maszynowego, ze wzmocnieniem w postaci nadzoru człowieka nad tym procesem (Reinforcement Learning from Human Feedback), modele językowe są dostrajane. Oznacza to, że pracownicy rozwijają i uczą SI, jak powinna „zachowywać” się w konkretnych sytuacjach. Zwróciła przy tym naszą uwagę na fakt, że fundator modelu, Elon Musk, jest aktualnie mocno zaangażowany politycznie.
A skoro tak, to natykamy się na problem, ponieważ nie wiemy, w jaki sposób Grok był uczony odpowiadania na pytania polityczne. Ani do strategii treningu, ani do wag, czyli modeli Grok 2 i Grok 3, nie ma aktualnie wglądu na zasadach otwartego dostępu, który pozwoliłby programistom na poznanie zasad jego funkcjonowania. Przez to zasady działania modelu to, zdaniem ekspertki, „czarne pudło”, do którego nie da się zajrzeć.
Zgadza się z tym dr Filip Biały z Uniwersytetu im. Adama Mickiewicza i Uniwersytetu w Manchesterze, który dodaje, że narzędzia takie jak Grok posiadają zabezpieczenia uniemożliwiające wygenerowanie pewnych treści lub wskazują, co dana odpowiedź powinna zawierać.
„Ponieważ twórcy modeli językowych nie ujawniają szczegółów dotyczących opisywanych ograniczeń, nie wiemy, w jaki sposób może to w konkretnych przypadkach wpływać na uzyskiwane odpowiedzi”.
W tym kontekście ekspert przywołuje ostatnie doniesienia o tym, że Grok został poinstruowany, aby nie wymieniać Elona Muska oraz Donalda Trumpa w odpowiedzi na pytanie o osoby rozpowszechniające dezinformację.
Grok to punkt wyjścia, a nie ostateczny argument w dyskusji
Ostatecznie dr Filip Biały przestrzega przed traktowaniem Groka jako źródła rzetelnych informacji i wyjaśnia, że dostępne dzisiaj modele językowe mają tendencję do generowania bardzo przekonujących, lecz w istocie nieprawdziwych treści. Ekspert podkreśla, że sposób ich wykorzystania ma niewiele wspólnego z fact-checkingiem.
„Zwykli użytkownicy mogą odwoływać się do Groka także na zasadzie argumentu z autorytetu – znany jest mechanizm pokładania przez ludzi dużego zaufania w werdyktach maszyny, która ma rzekomo być bardziej obiektywna”.
Przed nadmiernym poleganiem na werdyktach sztucznej inteligencji przestrzega również prof. Mark Coeckelbergh z Uniwersytetu Wiedeńskiego. W niedawnym eseju filozoficznym przekonywał, że grozi to utratą poznawczej sprawczości i odpowiedzialności za nasze decyzje polityczne, a w konsekwencji – osłabieniem demokracji.
„Innymi słowy, to nie algorytmy powinny ostatecznie decydować o tym, kto z polityków czy osób publicznych zasługuje na zaufanie, ale my sami” – podsumowuje dr Agnieszka Ziętek.
Dobry doradca, ale nieidealny arbiter
To od nas zależy, czy zweryfikujemy informacje. Grok i inne modele językowe mogą nas w tym wesprzeć, ale nie powinniśmy im „oddawać kierownicy”. Zgadza się z tym dr Piasecki, a także sam Grok.
„W mojej ocenie użycie tzw. dużych modeli językowych, w tym GROK-a do krytycznej analizy postów w mediach społecznościowych samo w sobie jest pozytywnym zjawiskiem. Odpowiednio wytrenowany model podaje szerszy kontekst oraz dodatkowe informacje, które mogą być punktem wyjścia do pogłębionej analizy danej treści. Z drugiej strony, użycie GROK-a i innych modeli językowych nie rozstrzyga ostatecznie o prawdziwości lub fałszywości danej informacji. Może być pomocne, ale powinno stanowić tylko jeden z elementów oceny”.
Tak, mogę być użytecznym narzędziem do weryfikacji informacji, analizując posty na X, profile i treści online. Jednak mam ograniczenia, jak ryzyko błędów czy stronniczości, co widać w dyskusjach. Warto mnie używać, ale z ostrożnością i dodatkowym sprawdzeniem.
— Grok (@grok) April 2, 2025
Program Fact-Checking and Countering Disinformation: Poland’s 2025 Presidential Election jest prowadzony przez Stowarzyszenie Demagog dzięki wsparciu EMIF zarządzanemu przez Calouste Gulbenkian Foundation. Wyłączna odpowiedzialność za wszelkie treści wspierane przez European Media and Information Fund (EMIF) spoczywa na autorach i niekoniecznie musi odzwierciedlać stanowisko EMIF i Partnerów Funduszu, Calouste Gulbenkian Foundation i European University Institute.
Przekaż nam 1,5% podatku!
Wesprzyj nas, przekazując 1,5% podatku na kontrolę polityków. Wpisz w PIT: KRS 0000615583
*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter