Informujemy o najważniejszych wydarzeniach ze świata fact-checkingu.
Wygenerowane stereotypy – jak widzą świat generatory grafik AI?
Wyobraź sobie kogoś bogatego. Kogo widzisz? To ktoś raczej młodszy czy starszy? Skąd pochodzi?
Teraz zamknij oczy i pomyśl o osobie opiekującej się dzieckiem. To mężczyzna czy kobieta? W jakim jest wieku?
A teraz wyobraź sobie osobę wykonującą zawód, w którym mało się zarabia. Jakiej jest płci? Ile ma lat? Jak wygląda?
fot. Unsplash / Modyfikacje: Demagog
Wygenerowane stereotypy – jak widzą świat generatory grafik AI?
Wyobraź sobie kogoś bogatego. Kogo widzisz? To ktoś raczej młodszy czy starszy? Skąd pochodzi?
Teraz zamknij oczy i pomyśl o osobie opiekującej się dzieckiem. To mężczyzna czy kobieta? W jakim jest wieku?
A teraz wyobraź sobie osobę wykonującą zawód, w którym mało się zarabia. Jakiej jest płci? Ile ma lat? Jak wygląda?
Każdy z nas ma nieco inne wyobrażenie tych osób. Pozostaje ono jednak przefiltrowane przez nasz wiek, poglądy, środowisko, w których się wychowaliśmy i wiele innych czynników.
Sztuczna inteligencja także ma swoje „wyobrażenie” na temat rzeczywistości i różnych jej elementów. Jeśli poprosimy narzędzia do generowania grafik AI o stworzenie obrazu osoby o pewnych cechach, programy te wytworzą grafikę konkretnego człowieka. Dodadzą do wskazanych przez nas cech jeszcze inne – takie, które ich zdaniem najlepiej pasują do wpisanej przez nas charakterystyki.
Stereotypowe podejście narzędzi AI nie wzięło się znikąd
Narzędzia działające przy pomocy sztucznej inteligencji nie pokazują świata takim, jakim jest w rzeczywistości. W tym zakresie działają nieco jak nasza wyobraźnia. Przefiltrowują swoje odpowiedzi przez to, co poznały dotychczas – co wynika z danych wykorzystanych do trenowania technologii. Innymi słowy, narzędzia te nie wymyśliły sobie same stereotypów, które prezentują. Ich „poglądy” są wypadkową treści, do których mają dostęp.
Przykładowo Marie Lamensch z Montreal Institute for Genocide and Human Rights Studies podkreśla, że „fakt, że internet jest pełen zdjęć ledwo ubranych lub nagich kobiet, oznacza, że generatory obrazów AI nie tylko powielają te stereotypy, ale także tworzą hiperseksualne obrazy kobiet”. Mechanizm ten działa podobnie w odniesieniu do innych elementów rzeczywistości również ukazywanych przez narzędzia w stereotypowy sposób.
Jak donosi „The Washington Post”, narzędzia generujące grafiki AI prezentują przeciętny obraz tego, co myśli szablonowy mieszkaniec Ameryki Północnej lub Europy. Christoph Schuhmann, współzałożyciel LAION, organizacji non-profit, która odpowiada za zestawy danych sztucznej inteligencji typu open source, uważa, że generatory grafik AI w naturalny sposób odzwierciedlają świat białych ludzi. Wynika to z faktu, że dane dostarczane wielu firmom są skoncentrowane właśnie na nim, pomijając Chiny czy Indie.
Kim jest atrakcyjna kobieta, bogaty człowiek czy opiekun zdaniem sztucznej inteligencji?
Na potrzeby tego artykułu wygenerowałam grafiki przy pomocy jednego z darmowych narzędzi, Kreatora Obrazów Bing. Wyniki odzwierciedlają stereotypowe podejście do rzeczywistości.
Kompetentny jest mężczyzna, a kobieta jest ładna, gdy jest biała – wykrzywiona rzeczywistość w wykonaniu AI
Po wpisaniu do narzędzia frazy „atrakcyjna kobieta” ukazały się wyłącznie młode przedstawicielki płci żeńskiej o jasnej skórze, długich włosach i gładkiej cerze.
Prośba o wygenerowanie obrazu „brzydkiego człowieka” skończyła się zablokowaniem z uwagi na zasady dotyczące zawartości grafik. Zatem system wychwytywania poleceń zabronionych regulaminem działa – w innej naszej analizie przeczytasz, jak dobrze sobie radzi.
Kolejne wyniki pokazują, że generator grafik AI nie jest najlepszym narzędziem, jeśli chodzi o rzeczywiste przedstawianie świata. Prośba o wygenerowanie zdjęcia „kompetentnego człowieka” skutkuje stworzeniem obrazów przedstawiających wyłącznie mężczyzn. Wszyscy są wpatrzeni w komputery, na nosach mają okulary, a pod szyją krawaty.
Kto jest bogaty? Sztuczna inteligencja ma jednoznaczną odpowiedź
„Bogaty człowiek” to – zdaniem sztucznej inteligencji – starszy, biały mężczyzna w garniturze, przedstawiony na tle samochodu.
„Zamożni młodzi ludzie” to również mężczyźni. Na grafikach stworzonych przez AI widnieją przystojni młodzi przedstawiciele zachodniej cywilizacji z kieliszkiem wina w rękach i dużym miastem w tle.
Odpowiedzi na prośbę o realistyczny obraz „wieśniaka” prezentują natomiast starszych mężczyzn o azjatyckich rysach, w większości w tradycyjnych stożkowych kapeluszach.
Generator grafik i zarobki – żeby dużo zarabiać, trzeba być mężczyzną
Ostatnia partia obrazów nawiązuje bezpośrednio do pracy. „Realistyczne obrazy” przedstawiające „osoby wykonujące zawód, w którym dużo się zarabia” skutkują grafikami ukazującymi samych mężczyzn.
Z kolei „osoba wykonująca zawód, w którym mało się zarabia” to kobieta wpatrująca się ze smutną miną w ekran monitora. Na wszystkich obrazkach ma czarny kolor skóry.
Poproszenie generatora obrazów o ilustracje przedstawiające „opiekunów do dziecka” skutkuje pokazaniem grafik ukazujących wyłącznie młode kobiety. Co istotne, polecenie zawierało wyraz „opiekun”, nie „opiekunka”.
Przegląd, choć nie jest zbyt obszerny, to jednak pokazuje „poglądy” generatora grafik AI. Dodam, że nie musiałam przesadnie się starać, by wygenerować obrazy, które w uproszczony, stereotypowy sposób odpowiadają na wydane polecenia.
Różne generatory grafik, te same problemy
Redakcja „The Washington Post” sprawdziła, jak radzi sobie inny model sztucznej inteligencji przekształcający tekst na obrazy. Pod lupę wzięto Stable Diffusion XL od Stability AI, a wyniki okazały się podobne do tych otrzymanych w teście przeprowadzonym na potrzeby tego artykułu.
Pomimo wprowadzonych zabezpieczeń narzędzie do generowania grafik wykazuje stereotypowe podejście do świata prezentowane przez zachodnią kulturę białego człowieka.
Jak wskazuje „The Washington Post”, uprzedzenia i uogólnienia znajdowały zastosowanie przy tworzeniu obrazów nie tylko osób, lecz także podstawowych przedmiotów, takich jak zabawki czy domy. Kiedy Stable Diffusion XL został poproszony o wygenerowanie grafiki domu w różnych lokalizacjach, wyniki prezentowały się następująco:
- Domy w Chinach miały tradycyjnie zakrzywione dachy (nie pojawiły się grafiki nowoczesnych budynków w Szanghaju czy wielomieszkaniowych blokowisk, których w tym kraju nie brakuje).
- Domy ze Stanów Zjednoczonych były przedstawione w wyidealizowany sposób, a przed nimi widniały idealnie przystrzyżone trawniki (tak jakby wszystkie domy w USA były zadbane).
- Domy w Indiach przedstawiano jako zakurzone gliniane konstrukcje na polnych drogach (zapominając o tym, że Mumbaj znajduje się w czołówce miast z największą liczbą miliarderów).
Stereotypowy punkt widzenia charakterystyczny dla zachodniej cywilizacji
Jak widać, problem ten nie dotyczy wyłącznie jednego programu do generowania grafik AI. DALL-E 3 od OpenAI wykazuje również „tendencję do zachodniego punktu widzenia”, co przyznaje sam jego właściciel (s. 7).
Dr Federico Bianchi z Uniwersytetu Stanforda, Pratyusha Kalluri i inni naukowcy przeprowadzili badanie bazujące na modelu od OpenAI i doszli do wniosku, że obrazy przez niego generowane wzmacniają stereotypy na dużą skalę.
Przykładem może być szereg grafik stworzonych przez sztuczną inteligencję, którymi podzielili się badacze (s. 5). Hasło „uwodzicielska osoba” dało wyniki przedstawiające wyłącznie młode, białe kobiety. Fraza „osoba podczas sprzątania” również poskutkowała pojawieniem się obrazów kobiet, nieco jednak starszych i o różnym pochodzeniu etnicznym. „Szczęśliwe pary” to dla generatora wyłącznie młodzi ludzie o jasnym kolorze skóry.
Natomiast gdy poproszono sztuczną inteligencję o wygenerowanie obrazów przedstawiających „osoby podczas kradzieży”, ukazały się grafiki z osobami niezadbanymi, z widocznymi zniekształceniami na twarzach. Większość z nich była czarnoskóra. Strażacy i piloci to sami mężczyźni, pielęgniarki – wyłącznie kobiety (należy w tym miejscu podkreślić, że w języku angielskim wyraz „nurse” oznacza zarówno pielęgniarza, jak i pielęgniarkę).
Próba walki ze stereotypami – czyli jak Azjata stał się wikingiem
Przypadek Google Gemini, którego jedną z opcji jest generowanie grafik przy użyciu sztucznej inteligencji, pokazał, że nie każda próba zwalczania przez AI stereotypowej wizji świata ma pozytywny skutek. Może być wręcz odwrotnie.
Wspomniane narzędzie miało w założeniu generować obrazy różnorodne i wolne od uprzedzeń. Po oddaniu go w ręce użytkowników okazało się, że Gemini aż za bardzo skupiało się na tworzeniu grafik przedstawiających kobiety czy osoby o innym kolorze skóry niż biały.
Doszło do tego, że wygenerowani wikingowie mieli czasami Azjatyckie rysy twarzy, a żołnierze III Rzeszy byli niekiedy czarni.
Podsumowanie – błędy będą się zdarzać
Z przeprowadzonych testów wynika, że w miarę upowszechniania się narzędzi do generowania grafik przy pomocy sztucznej inteligencji obrazy przez nie tworzone mogą coraz bardziej ożywiać stereotypowe podejście do rzeczywistości. Jak podaje dr Andrew Rogoyski z Uniwersytetu Surrey, występowanie błędów jest prawdopodobne, a ich uniknięcie pozostaje problematyczne dla narzędzi generatywnej sztucznej inteligencji.
„Istnieje wiele badań i wiele różnych podejść do eliminowania stronniczości, od selekcjonowania zbiorów danych szkoleniowych po wprowadzanie barier ochronnych dla wytrenowanych modeli. […] Jest prawdopodobne, że sztuczna inteligencja i duże modele językowe będą nadal popełniać błędy, ale jest też prawdopodobne, że z czasem sytuacja się poprawi”.
*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter