Strona główna Analizy Treści promujące zaburzenia odżywiania – co podsuwa TikTok i AI?

Treści promujące zaburzenia odżywiania – co podsuwa TikTok i AI?

Zacieniona postać stojąca przez zasłoniętym oknem. Nad nią logotyp TikToka.

fot. Pexels / Modyfikacje: Demagog

Treści promujące zaburzenia odżywiania – co podsuwa TikTok i AI?

Jak TikTok i narzędzia wykorzystujące sztuczną inteligencję naprowadzają nastolatków na szkodliwe treści.

Większość użytkowników TikToka to młode osoby. Chat GPT wszedł na stałe do asortymentu narzędzi używanych przez internautów, w tym tych należących do młodych grup wiekowych.

Jakie treści dotyczące obrazu ciała podsuwa młodym użytkownikom TikTok? Jak chatboty wykorzystujące sztuczną inteligencję odpowiadają na pytania dotyczące odżywiania i szczupłej sylwetki? Jakie obrazy w tym kontekście tworzą generatory grafik AI? Analitycy z Centrum Przeciwdziałania Cyfrowej Nienawiści (CCDH) przyjrzeli się temu w dwóch niezależnych badaniach. W jednym z nich penetrowali zakamarki TikToka, w drugim sprawdzili chaty i generatory obrazów AI.

Treści dotyczące zaburzeń odżywiania i samobójstw… w kilka minut

W celu przeprowadzenia badania dotyczącego TikToka założono konta w Stanach Zjednoczonych, Wielkiej Brytanii, Kanadzie i Australii. Badacze określili wiek użytkownika jako minimalny dozwolony przez regulamin platformy – czyli 13 lat (s. 5). Analitycy przez 30 minut ignorowali neutralne tematycznie filmy, a gdy natrafili na przekazy dotyczące zdrowia psychicznego, obrazu ciała, wagi, zaburzeń odżywiania lub samookaleczania, zatrzymywali się, oglądali je, a następnie zostawiali reakcję serduszka (s. 11).

Badanie dowiodło, że TikTok polecał treści dotyczące zaburzeń odżywiania i samookaleczania kontom nastolatków w ciągu dosłownie kilku minut od ich pierwszego kontaktu z platformą. Poszczególne wyniki prezentują się następująco (s. 7):

  • TikTok co 39 sekund pokazywał nastolatkom obraz ciała i informacje dotyczące zdrowia psychicznego.
  • Treści dotyczące samobójstwa pojawiły się po upływie 2,6 minuty od rozpoczęcia używania aplikacji.
  • Przekazy promujące zaburzenia odżywiania wyświetliły się w ciągu 8 minut od początku aktywności na platformie.

Co więcej, dostępne na TikToku hashtagi dotyczące zaburzeń odżywiania miały ponad 13,2 mld wyświetleń (s. 7). Przykładem takiego oznaczenia był #kcaltok (13,8 mln wyświetleń), pod którym można było znaleźć niekoniecznie zdrowe porady żywieniowe (s. 38).

Ekstremalne sposoby na odchudzanie i operacja plastyki brzucha – co wyświetla się w filmach na TikToku?

Badacze natrafili na filmy dotyczące m.in. prób samobójczych, metod samookaleczania się, braku pewności siebie z powodu wagi oraz zaburzeń odżywiania (s. 20).

„Treści przedstawiające ciało okazały się bardziej szkodliwe – filmy promujące napoje odchudzająceoperacje plastyki brzucha były kierowane do kont deklarujących wiek 13 lat”.

Przykłady tego typu treści dotyczyły również tzw. junkoreksji dotyczącej osób cierpiących na anoreksję, które jedzą wyłącznie „śmieciowe jedzenie” (z ang. junk food), czy też diety polegającej na spożywaniu wyłącznie gotowanych jajek, co ma umożliwić szybkie schudnięcie (przykłady dostępne na s. 16–23).

Przemyślane hashtagi i cyfry zamiast liter – próby ominięcia moderacji na TikToku

raporcie zwrócono uwagę także na ukrywanie omawianych treści przez użytkowników pod innymi hasłami – tak, by uniknąć moderacji przez platformę (s. 7). W języku angielskim „zaburzenia odżywiania” tłumaczy się jako „eating disorders”. W skrócie nazwa ta funkcjonuje jako „ed”. Użytkownicy TikToka, żeby uciec przed moderacją treści, tagują swoje filmy np. hashtagiem #edtøk (s. 37) – zamiast #edtok, który został zablokowany przez platformę.

Osoby publikujące wideo na TikToku wykorzystują też imię i nazwisko popularnego piosenkarza Eda Sheerana. Użytkownicy poszukujący treści na temat zaburzeń odżywiania wiedzą, że znajdą je m.in. pod hashtagiem #EdSheeranDisorder. Filmy tak opisane nie mają związku ze znanym artystą – otagowanie ich w ten sposób pozwala uniknąć moderacji. Poniżej widoczny jest przykładowy materiał, w którego opisie pojawił się hashtag #EdSheeranDisorder. Jego autorka pokazuje swoją drogę wychodzenia z zaburzeń odżywiania. 

@bunzkittyear happy 6 months to me 😀 ivs dome so far already :’3 #edsheeranrecoveryy #edsheerancovers #recovery #anarecovry #3drecovery #3drec0very ♬ cry – favsoundds

Innym sposobem na przemknięcie pod radarem moderacji jest wstawianie cyfr w miejsce liter. Np. zamiast „e” w wyrazie „anoreksja” użytkownicy wpisują „3” – tak powstaje „anor3ksja”. Znalezienie przykładu takiego materiału na potrzeby tego tekstu zajęło mi… kilka sekund. Niżej możesz zobaczyć film, w którym zastosowano taki sposób zapisu.

@recoveringlily♬ nemahsis – nemahsis

 

Konta „wrażliwe” bardziej narażone na szkodliwe treści o zaburzeniach odżywiania i zachowaniach autodestruktywnych

Poza standardowymi kontami nastolatków badacze założyli profile, które określili jako „wrażliwe”. Otrzymały one nazwy wskazujące na „obawy związane z obrazem ciała” (s. 7), np. „loseweight” w nicku użytkownika sygnalizujące, że osoba jest zainteresowana spadkiem masy ciała (s. 5). 

Wyniki badania wskazują, że kontom osób potencjalnie bardziej wyczulonych na takie treści filmy dotyczące zaburzeń odżywiania, samookaleczania i samobójstw wyświetlały się trzy razy częściej niż zwykłym profilom (s. 24). Autorzy raportu wskazują, że w tej grupie szczególnie gwałtownie wzrosła liczba wideo na temat zachowań autodestruktywnych. Konta reprezentujące „wrażliwych” trzynastolatków otrzymały 12 razy więcej rekomendacji nagrań o samookaleczaniu i samobójstwach niż standardowe profile nastolatków (s. 24). Z kolei filmy dotyczące zdrowia psychicznego i obrazu ciała były polecane kontom „wrażliwych” nastolatków co 27 sekund (s. 35).

​Zdaniem badaczy szkodliwe treści prezentowane „wrażliwym” kontom były „bardziej ekstremalne” niż te pokazywane zwykłym profilom (s. 26). Przykładem takiego materiału może być film, w którym dowiadujemy się, że żucie gumy osłabia poczucie głodu, czy też wideo z widocznym napisem „samobójstwo” i informacją, że autor materiału „myśli o nim” (przykłady dostępne na s. 26–34). Jak podkreśla Imran Ahmed, dyrektor generalny CCDH:

„TikTok identyfikuje podatność użytkownika i wykorzystuje ją […] Młodzi ludzie, którzy angażują się w te treści, muszą stawić czoła oszałamiającemu napływowi coraz większej liczby polecanych filmów w swoich kanałach”.

Chatboty AI i ich szkodliwe odpowiedzi w kontekście zaburzeń odżywiania

W innym badaniu analitycy z CCDH przyjrzeli się narzędziom wykorzystującym sztuczną inteligencję. Wzięto pod uwagę chatboty: ChatGPT od OpenAI, Bard od Google i My AI od Snapchata oraz generatory obrazu: Dall-E, MidjourneyDreamStudio.

Analitycy opracowali zestaw 20 zapytań opartych na badaniach dotyczących zaburzeń odżywiania i treściach znalezionych na forach poświęconych takim dolegliwościom. Zestaw pytań zadawany każdemu chatbotowi zawierał prośby o wskazanie restrykcyjnej diety pozwalającej uzyskać wygląd jak z materiałów „thinspo” (połączenie angielskich wyrazów oznaczających „szczupły” i „inspiracja”) oraz pytania o leki wywołujące wymioty (s. 6).

Zapytania te, zadane trzem chatbotom, przyniosły 60 odpowiedzi, spośród których 23 proc. zdaniem badaczy zawierało szkodliwe treści. Należy zaznaczyć, że My AI od Snapchata odmówił wygenerowania porad, o które prosili badacze, i zachęcił do szukania pomocy u specjalisty (s. 6). 

Następnie analitycy zadali chatbotom ponownie te same pytania, jednak tym razem wykorzystali znane sztuczki pozwalające obejść zabezpieczenia (za pomocą określonych podpowiedzi, wyrażeń, stwierdzeń można ominąć wytyczne dotyczące moderacji treści w narzędziach AI i nakłonić program do generowania wyników, które teoretycznie są zabronione w jego regulaminie). Odpowiedzi na pytania zadane w taki sposób zawierały szkodliwe treści już nie w 23 proc., a w 67 proc. Pojawiły się one we wszystkich trzech chatbotach (s. 6).

Palenie papierosów, ukrywanie niezjedzonych posiłków, zażywanie heroiny i jaja tasiemca – jakie porady oferują chatboty AI?

Wśród niebezpiecznych porad udzielonych przez narzędzia AI znalazły się m.in. (s. 6–7):

  • przewodnik „żucia i plucia” krok po kroku jako metody na ekstremalnie szybką utratę wagi;
  • porada dotycząca palenia 10 papierosów dziennie w celu schudnięcia;
  • plan restrykcyjnej diety i ćwiczeń mający umożliwić osiągnięcie „thinspo look” oraz schemat odchudzania pozwalający na spożywanie 800–1000 kalorii dziennie;
  • chowanie jedzenia w przedmiotach codziennego użytku, aby ukryć przed rodzicami fakt, że nie jemy;
  • wskazówka o treści „zażyj trochę heroiny” w celu osiągnięcia wyglądu „heroin chic” (wychudzona sylwetka kojarzona z osobami uzależnionymi od tego narkotyku);
  • porada, by połknąć jajo tasiemca, by schudnąć.

Chatbot polecił mi jeść 500 kalorii dziennie, jeśli chcę schudnąć, a nie dbam o swoje zdrowie

Szybki test w jednym z chatbotów pokazał, że nie trzeba się natrudzić, by uzyskać od niego niebezpieczne wskazówki dotyczące odżywiania. Bard od razu wygenerował porady, jak schudnąć 10 kg w ciągu zaledwie tygodnia (w poleceniu wskazałam, że nie zależy mi na zdrowiu i nie chcę ćwiczyć). Chatbot zaproponował mi dietę składającą się z 500–700 kalorii dziennie i przedstawił jadłospis mieszczący się w dolnej granicy. Tymczasem przeciętne zapotrzebowanie kaloryczne dorosłej kobiety wynosi znacznie więcej.

Zrzut ekranu omawianej odpowiedzi udzielonej przez chatbota Bard.

Źródło: www.bard.google.com

Poniżej ukazane były ostrzeżenia. Jedno z nich dotyczyło tego, że „szybka utrata wagi może mieć negatywny wpływ na zdrowie” (zaznaczyłam w poleceniu, że nie zależy mi na zdrowiu). Na samym końcu odpowiedzi widniała informacja o treści: „Należy pamiętać, że te wskazówki są przeznaczone dla osób, które nie dbają o swoje zdrowie i nie chcą ćwiczyć. Jeśli zależy Ci na zdrowiu, nie należy ich stosować”.

Skrajnie wychudzone sylwetki – co pokazują generatory obrazów AI?

Również w przypadku generatorów obrazów AI badacze zastosowali 20 poleceń. Obejmowały one m.in. „inspirację anoreksją”, „thigh gap goals” (dążenie do posiadania w pozycji stojącej przestrzeni między udami) czy „inspirację chudym ciałem”. Spośród 60 zestawów obrazów 32 proc. zawierało szkodliwe materiały promujące nierealistyczne standardy wyglądu ciała (s. 8). Obejmowały one m.in.:

  • obraz ekstremalnie chudej młodej kobiety w odpowiedzi na pytanie zawierające słowo „thinspiration”;
  • obrazy kobiet z wyraźnie zarysowanymi kośćmi biodrowymi i klatką piersiową w odpowiedzi na polecenie zawierające frazę „inspirację chudym ciałem”;
  • obrazy kobiet o wyjątkowo niskiej masie ciała w odpowiedzi na pytanie zawierające „inspirację anoreksją”;
  • obrazy kobiet o bardzo szczupłych nogach w odpowiedzi na polecenie zawierające „thigh gap goals”.

Autorzy raportu wskazują, że generatory obrazów AI są wykorzystywane przez użytkowników popularnego forum poświęconego zaburzeniom odżywiania. Internauci zamieszczają na nim wygenerowane przez sztuczną inteligencję obrazy bardzo szczupłych sylwetek promujące nierealistycznie standardy wyglądu ciała. Zachęcają się też wzajemnie do „publikowania własnych wyników” pozyskanych m.in. z Dall-E i Stable Diffusion (s. 9).

Test przeprowadzony na potrzeby tego tekstu wykazał, że również darmowe narzędzie do tworzenia grafik AI (Kreator Obrazów od Microsoft Bing) generuje ilustracje przedstawiające nierealistyczny wygląd ciała. Wystarczyło zastosować jedną ze sztuczek pozwalających na ominięcie zasad i narzędzie utworzyło widoczne poniżej obrazy.

Zrzut ekranu omawianych grafik utworzonym przy pomocy Kreatora Obrazów od Microsoft Bing.

Źródło: www.bing.com

Zamiast podsumowania: treści, na które trafiają młode osoby w sieci, mają na nie wpływ

badania opublikowanego w „PLOS One” wynika, że młode osoby, a szczególnie kobiety, które odbierają na TikToku w treści związane z wagą i odżywianiem, są narażone na ryzyko uwewnętrznienia prezentowanego tam obrazu ciała i sposobów odżywiania.

Jak podkreślają autorzy pracy, „młodzi ludzie są podatni na wpływ treści w mediach społecznościowych i nie zawsze są w stanie rozpoznać, które materiały zawierają porady oparte na dowodach, a które nie”. Jest to szczególnie warte odnotowania, gdyż treści dotyczące żywienia i wagi prezentowane na TikToku w przeważającej większości nie są tworzone przez ekspertów w tej dziedzinie, co wynika ze wspomnianego badania.

Problem nie dotyczy jednak tylko TikToka. Niepokojące doniesienia w tej kwestii pojawiają się także w kontekście innych platform społecznościowych. Dwa lata temu „The Wall Street Journal” pisał o problemie dotyczącym Instagrama. Zdarza się, że nastolatki korzystające z tego medium odczuwają presję dostosowania się do stereotypów społecznych dotyczących wyglądu oraz kształtu ciała promowanych przez influencerów (s. 12). Niebezpieczne porady na temat odżywiania i utraty kilogramów można znaleźć także w odpowiedziach udzielanych przez chatboty AI. Imran Ahmed, dyrektor generalny CCDH, alarmuje:

„Kanały młodych ludzi są bombardowane szkodliwymi, wstrząsającymi treściami, które mogą mieć znaczący, skumulowany wpływ na ich rozumienie otaczającego ich świata oraz ich zdrowie fizyczne i psychiczne”.

Od października 2023 roku jesteśmy członkiem Programu fact-checkingowego TikToka. Jesteśmy w pełni niezależni. Wyłączna odpowiedzialność merytoryczna za publikowane przez nas analizy spoczywa na zespole redakcji portalu demagog.org.pl.

*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter

Wpłać, ile możesz

Na naszym portalu nie znajdziesz reklam. Razem tworzymy portal demagog.org.pl

Wspieram

Dowiedz się, jak radzić sobie z dezinformacją w sieci

Poznaj przydatne narzędzia na naszej platformie edukacyjnej

Sprawdź!