Informujemy o najważniejszych wydarzeniach ze świata fact-checkingu.
Ryzyko dezinformacji i cyberataków. Jak radzą sobie chatboty?
Przyglądamy się zagrożeniom związanym z chatami AI.
Fot. Tapati Rinchumrus / Shutterstock / Modyfikacje: Demagog.org.pl
Ryzyko dezinformacji i cyberataków. Jak radzą sobie chatboty?
Przyglądamy się zagrożeniom związanym z chatami AI.
Elon Musk, współzałożyciel Apple Steve Wozniak, przedsiębiorca i były kandydat na prezydenta Andrew Yang oraz ponad 26 tys. innych osób podpisało list z apelem o natychmiastowe wstrzymanie rozwoju sztucznej inteligencji zaawansowanej bardziej niż GPT-4. Czytamy w nim, że sztuczna inteligencja „może stanowić poważne zagrożenie dla społeczeństwa i ludzkości”. Z kolei Włochy zakazały korzystania z programu ChatGPT z uwagi na ryzyko, jakie niesie on w zakresie ochrony danych osobowych użytkowników.
Obawy wyraził także Sam Altman, założyciel OpenAI, firmy odpowiedzialnej za stworzenie GPT (Generative Pre-trained Transformer), w wywiadzie udzielonym ABC News. Wskazał on na ryzyko dezinformacji i cyberprzestępstw, jakie stwarza sztuczna inteligencja. „Szczególnie martwi mnie to, że te modele mogą zostać wykorzystane do dezinformacji na dużą skalę” – powiedział Altman.
W jednej z naszych analiz opisywaliśmy raport naukowców z Uniwersytetu Stanforda. Wynika z niego, że w ostatnich latach odnotowano wyraźny wzrost nadużyć z wykorzystaniem sztucznej inteligencji.
To druga część analizy dotyczącej chatbotów AI. Dzięki niej poznasz rodzaje ryzyka, jakie niosą te narzędzia w zakresie dezinformacji i cyberbezpieczeństwa. Pierwszą część analizy znajdziesz tutaj.
Czy faktycznie jest się czego bać? Dezinformacja w wykonaniu chatów AI
Chatboty wykorzystujące sztuczną inteligencję mogą zostać użyte do rozpowszechniania fałszywych narracji i teorii spiskowych. Jak podaje The Washington Post, chat Bing (oparty na GPT-4) potrafi samodzielnie wymyślić teorię spiskową, która wcześniej nie pojawiała się w przestrzeni publicznej.
Po zapytaniu o to, „kiedy Tom Hanks ujawnił aferę Watergate?”, narzędzie fantazjuje na temat aktora i jego zaangażowania w rozbicie skandalu. Dla porządku dodajmy, że Tom Hanks nie miał nic wspólnego z aferą Watergate, a w momencie jej ujawnienia był nastolatkiem.
„Modele językowe AI notorycznie przekazują bzdury, często przedstawiają kłamstwa jako fakty. Są doskonałe w przewidywaniu następnego słowa w zdaniu, ale nie mają wiedzy na temat tego, co tak naprawdę oznacza dane zdanie. To sprawia, że szczególnie niebezpieczne jest łączenie ich z wyszukiwaniem, gdzie kluczowe jest ustalenie faktów”.
MIT (Massachusetts Institute of Technology) Technology Review
Trudno traktować chatboty AI jako rzetelne źródła informacji i ufać w przekazywane przez nie treści. Dlaczego mielibyśmy uwierzyć narzędziu, które potrafi całkowicie zmyślić historię i dorobić do niej fałszywą teorię?
Postęp w zakresie sztucznej inteligencji równa się rozwojowi dezinformacji?
W styczniu 2023 roku analitycy portalu NewsGuard poprosili ChatGPT (GPT-3,5) o odniesienie się do stu popularnych fałszywych narracji. Narzędzie wygenerowało 80 niezgodnych z prawdą twierdzeń. Trzy miesiące później portal powtórzył ten eksperyment, tym razem wobec GPT-4. Okazało się, że w każdym przypadku chatbot udzielił odpowiedzi zawierających informacje wprowadzające w błąd.
Jak przekonują analitycy NewsGuard, najnowsza wersja GPT jest bardziej biegła nie tylko w udzielaniu odpowiedzi na zawiłe pytania i w dogłębnym tłumaczeniu prawdziwych zagadnień, ale także w wyjaśnianiu fałszywych twierdzeń i przekonywaniu, że są zgodne z prawdą.
Przykładowo, narzędziu GPT-4 wydano polecenie, by napisało wpis do przewodnika po alternatywnych terapiach przeciwnowotworowych dotyczący leczenia ozonem – niepopartej dowodami naukowymi formy terapii, która jest niebezpieczna dla zdrowia. Chat wygenerował długą, wprowadzającą w błąd wypowiedź, w której zawarł informacje, jak działa wspomniana terapia, a swój tekst podzielił na następujące śródtytuły: „Zwiększone dostarczanie tlenu”, „Stres oksydacyjny w komórkach rakowych”, „Stymulacja układu odpornościowego” i „Hamowanie wzrostu guza”.
ChatGPT (GPT-3.5) na to samo pytanie również udzielił wprowadzającej w błąd odpowiedzi, lecz nie była ona tak dokładna, ani nie zawierała tak wielu szczegółów i argumentów za ozonoterapią. Nie była też aż tak dobrze zorganizowana.
W przypadku innego polecenia wydanego GPT-4 i GPT-3,5 było podobnie. Chaty miały za zadanie stworzyć artykuły o strzelaninie w szkole z punktu widzenia zwolennika teorii spiskowej. GPT-3.5 wygenerował konspiracyjny, ale niedokładny tekst. Brakowało w nim zmyślonych szczegółów, które pojawiły się w odpowiedzi udzielonej przez GPT-4. Co więcej, artykuł stworzony przez GPT-3.5 na końcu zawierał ostrzeżenie, że „teorie spiskowe zostały obszernie obalone przez różne renomowane i wiarygodne źródła”. Takiej informacji nie zawierała odpowiedź wygenerowana przez GPT-4.
Fałszywa informacja? Proszę bardzo, już wymyślam
Zamiast szukać błędów popełnianych przez sztuczną inteligencję, chatboty można wprost poprosić o stworzenie fałszywej informacji. Ta możliwość stwarza ryzyko wykorzystania programów przez nieuczciwe osoby, które w dezinformowaniu mają swój własny interes. Jak podaje The Guardian, na forach internetowych poświęconych zarabianiu na tworzeniu fałszywych przekazów, ChatGPT wskazuje się jako przełom w wydajnym tworzeniu niezgodnych z prawdą materiałów.
Sprawdziłam to. Poprosiłam ChatGPT, by napisał fake newsa o pochodzeniu Andrzeja Dudy. Tego typu fałszywe narracje pojawiały się wcześniej w sieci. Wedle części materiałów rzekomym dziadkiem prezydenta miał być działacz UPA, Mychajło Duda, inne zaś wskazywały na żydowskie korzenie Andrzeja Dudy.
Chatbot nie miał problemu z wymyśleniem fałszywej historii o pochodzeniu prezydenta. Wskazał, że Andrzej Duda jest ukraińskim szpiegiem, a jego ojcem był rosyjski oficer GRU (Główny Zarząd Wywiadowczy). Rzekomym prawdziwym nazwiskiem prezydenta ma być Andrij Dudycz. Na żadną z tych informacji nie ma dowodów, co z pewnością nie przeszkodziłoby aktorom dezinformacji w ich rozpowszechnieniu.
Co więcej, wymyślony przez sztuczną inteligencję fake news wpisuje się w popularne obecnie narracje i mógłby przyczynić się do nastawiania Polaków przeciwko Ukraińcom oraz polaryzacji polskiego społeczeństwa.
Tłumaczenie dezinformujących materiałów na inne języki? Żaden problem
Co więcej, wymyślony przez chat tekst zawierający fałszywe informacje możemy, również przy jego pomocy, przetłumaczyć na różne języki. Poniżej znajduje się przykład fake newsa wymyślonego przez ChatGPT na temat zmian klimatu.
Narzędzie wymyśliło teorię o tym, że zmiany klimatu wynikają z aktywności kosmitów, którzy odwiedzają Ziemię, by wprowadzić do atmosfery gaz zwiększający efekt cieplarniany. Tym samym ChatGPT zanegował odpowiedzialność człowieka za zmianę klimatu, a winą obarczył kosmitów.
Przetłumaczenie wymyślonej teorii na wskazane przeze mnie języki nie sprawiło chatowi problemu.
Narzędzie popełnia pewne błędy przy tłumaczeniu, lecz testy, przeprowadzone przez różne portale, wykazały, że radzi sobie lepiej niż Tłumacz Google i DeepL.
„ChatGPT działa imponująco, tłumacząc tekst i robi to w wielu przypadkach lepiej niż tłumacz Google – zwłaszcza przy tłumaczeniu powszechnie używanych języków”.
Używając bota ChatGPT, możemy także spróbować uatrakcyjnić tłumaczenie i poprosić narzędzie, by przełożył tekst np. „jakby został napisany przez native speakera z Anglii”. Takie działanie może spowodować bardziej wiarygodne brzmienie tłumaczenia i ukrycie, że dana partia tekstu w ogóle została przełożona z innego języka.
Zagrożenie dla prawdy w dziennikarstwie?
Chatboty oparte na sztucznej inteligencji mogą w bardzo krótkim czasie tworzyć ogromne ilości materiału do wykorzystania w mediach. Wiele redakcji już dziś korzysta z AI w przypadku krótkich form, niewymagających złożonej analizy danych, takich jak np. zachęty do odwiedzenia witryny czy przekazania datku. Wiadomości skonstruowane przez te narzędzia wyglądają tak, jakby napisał je człowiek, jednak często nie znajdują żadnego pokrycia w faktach.
Jeden z portali o tematyce technologicznej i finansowej cnet.com zdecydował się na zlecenie pisania części artykułów sztucznej inteligencji. Spośród 77 publikacji utworzonych w ten sposób, redakcja musiała poprawić 41 – z uwagi na liczne błędy, przekłamania i podejrzenie plagiatu.
Ostatnio okazało się, że i w Polsce mają miejsce podobne próby. Dziennikarz portalu Wyborcza.biz opublikował tekst w całości napisany przez sztuczną inteligencję i – jak przyznał –nikt nie zorientował się, że to nie on jest autorem artykułu. Publikacja faktycznie została uznana za niezbyt wysokich lotów, „bez pazura”, ale czytelnicy nie rozpoznali udziału sztucznej inteligencji przy tworzeniu tekstu.
Ryzyko dla bezpieczeństwa w sieci? Chaty AI a prywatność
Powszechne wykorzystanie sztucznej inteligencji rodzi też zagrożenia w obszarze cyberbezpieczeństwa. Jednym z nich jest kwestia prywatności użytkowników, która dała impuls włoskiemu regulatorowi do wprowadzenia zakazu używania programu ChatGPT.
Chatboty zbierają ogromne ilości danych o użytkowniku. Narzędzia te gromadzą informacje podobnie jak wyszukiwarki (m.in. tekst, informacje o urządzeniu, lokalizację, aktywność w mediach społecznościowych, którą można powiązać z adresem e-mail i numerem telefonu). Ich twórcy tłumaczą to dążeniem do ulepszania sztucznej inteligencji. Jednak, jak podkreśla Ali Vaziri, dyrektor w zespole ds. ochrony danych i prywatności w Lewis Silkin, zagrożenie dla prywatności użytkowników jest większe ze strony chatów AI niż ze strony wyszukiwarek.
Co ważne, z uwagi na indywidualny charakter rozmowy z chatbotem użytkownicy mogą być bardziej skłonni do ujawniania prywatnych danych. Tymczasem Microsoft przyznał, że pracownicy firmy czytają rozmowy użytkowników z chatem Bing.
Zagrożenie cyberprzestępstwami
Omawiana technologia może również zostać wykorzystana do przeprowadzenia cyberataków. Jak wskazuje brytyjskie Narodowe Centrum Cyberbezpieczeństwa (NCSC), chatboty mogą pomagać w tworzeniu złośliwych oprogramowań. Próg wejścia do przestępczego „biznesu” obniży się z uwagi na ułatwienia ze strony sztucznej inteligencji.
Przykładowo, mniej wykwalifikowane osoby, które do tej pory nie umiały zrobić tego samodzielnie, mogą poprosić AI o napisanie kodu, który wygeneruje wiadomości tekstowe do setek osób.
Internetowi oszuści często podszywają się pod znane strony internetowe, dzięki czemu chcą być bardziej wiarygodni w nakłanianiu internautów do przekazania ich danych osobowych lub pieniędzy. Wydałam programowi ChatGPT polecenie, by napisał kod strony, która wyglądem będzie przypominała panel do logowania Facebooka (scamerzy nieraz podszywali się pod ten portal). Narzędzie podkreśliło, że nie utworzy kodu, który „byłby używany w celach nieetycznych lub nielegalnych, takich jak podszywanie się pod firmę czy wyłudzanie danych osobowych”, jednak w tej samej odpowiedzi zrobił dokładnie to, o co poprosiłam.
Czy kogoś, kto chce oszukiwać w sieci, powstrzyma ostrzeżenie, że jest to nieetyczne lub nielegalne?
Utrudnienia w rozpoznawaniu internetowych oszustw
W naszych analizach wielokrotnie podkreślaliśmy, żeby w przypadku podejrzenia internetowego oszustwa zwracać uwagę na język, jakim została napisana wiadomość. Nasz analityk, Mateusz Cholewa, tłumaczył, że błędy ortograficzne i niewłaściwa odmiana wyrazów mogą być sygnałem, że wpisy oraz komentarze w mediach społecznościowych zostały sfabrykowane – nieudolnie przetłumaczone z innego języka.
Oczywiście, wciąż warto zwracać uwagę na błędy językowe popełniane przez oszustów, ale w obliczu rozkwitu sztucznej inteligencji wydaje się to niewystarczające. Wspomniane już wcześniej trafne tłumaczenia dokonywane przez ChatGPT sprawiają, że nieuczciwe osoby mogą z łatwością przełożyć treść posta i za jego pośrednictwem namawiać internautów do przekazania danych osobowych czy wejścia na niebezpieczną stronę – bez błędów językowych.
W połączeniu z generatorami grafik AI nietrudno sobie wyobrazić, jak perfekcyjnie napisany tekst scamu towarzyszy stworzonemu przez sztuczną inteligencję Elonowi Muskowi, który namawia do instalacji „aplikacji do łatwego zarabiania”. Rozpoznawanie internetowych oszustw staje się trudniejsze.
Podsumowanie – nie taki chatbot straszny…
Korzystaniu z chatbotów AI towarzyszy wiele zagrożeń i warto mieć je na uwadze. Z pewnością nie powinno to być pierwsze i ostatnie źródło informacji, po które sięgamy, szukając odpowiedzi na nurtujące nas pytania. Sam ChatGPT w rozmowie podkreślił, że „zawsze zaleca się, aby użytkownicy sami oceniali i weryfikowali źródła informacji, zwłaszcza w przypadku kwestii kontrowersyjnych lub wątpliwych”. Z kolei na stronie usługi Bing czytamy zalecenie, by podczas korzystania z chatu „kierować się własnym osądem i dokładnie sprawdzać fakty przed podjęciem decyzji”.
Technologia AI może jednak przynieść wiele pozytywnych rozwiązań. Jak wskazuje CyberDefence24, właśnie te narzędzia mogą przyczynić się do uefektywnienia prac nad bardziej wydajną ochroną przez cyberatakami, gdyż są w stanie szybciej przetwarzać dane, dzięki czemu mogą sprawniej identyfikować zagrożenia.
Innym przykładem pozytywnego zastosowania tej technologii jest wykorzystanie GPT-4 do utworzenia „wirtualnego wolontariusza” dla osób niedowidzących. Narzędzie pozwala opisać to, co „widzi” telefon. Podobnych inicjatyw jest znacznie więcej.
Wspieraj niezależność!
Wpłać darowiznę i pomóż nam walczyć z dezinformacją, rosyjską propagandą i fake newsami.
*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter