Strona główna Fake News „Zdjęcie” statuetki Oscara w spalonym domu nie jest prawdziwe

„Zdjęcie” statuetki Oscara w spalonym domu nie jest prawdziwe

„Są zdjęcia warte 1000 słów….” – napisano w poście, w którym udostępniono obraz przedstawiający statuetkę Oscara w pogorzelisku. Wszystko wskazuje na to, że nie jest ono prawdziwe i wygenerowano je przy pomocy sztucznej inteligencji.

screen z Facebooka, w tle płomienie pożaru

fot. Pexels / Facebook/ Modyfikacje: Demagog

„Zdjęcie” statuetki Oscara w spalonym domu nie jest prawdziwe

„Są zdjęcia warte 1000 słów….” – napisano w poście, w którym udostępniono obraz przedstawiający statuetkę Oscara w pogorzelisku. Wszystko wskazuje na to, że nie jest ono prawdziwe i wygenerowano je przy pomocy sztucznej inteligencji.

Analiza w pigułce

  • W mediach społecznościowych udostępniono obraz przedstawiający statuetkę Oscara w pogorzelisku, co może wywoływać skojarzenia z niedawnymi pożarami w Kalifornii.
  • Ten obraz wygenerowano przy pomocy sztucznej inteligencji, na co wskazuje ekspertyza wykonana przez Emmanuelle Salibę, rzeczniczkę GetReal Labs, na prośbę redakcji PolitiFact. Ujawniają to m.in. nienaturalne cienie, światło, a także sam wygląd statuetki, który jest niezgodny z oryginałem.

Pożary w Kalifornii są szeroko komentowane i relacjonowane w mediach, w tym w mediach społecznościowych. Wśród treści na popularnych platformach można natknąć się na fałszywe przekazy. Część z nich opisaliśmy już wcześniej na stronie Demagoga (1, 2, 3). Zdarza się, że towarzyszą im zdjęcia wyrwane z kontekstu, które nie przedstawiają aktualnych wydarzeń, albo obrazy wygenerowane przy pomocy sztucznej inteligencji.

Jednym z przykładów jest obraz przedstawiający statuetkę Oscara leżącą w pogorzelisku, rozpowszechniany w mediach społecznościowych. Ma być on autentycznym zdjęciem dokumentującym wydarzenia w Kalifornii.

Zrzut ekranu posta na Facebooku. Na załączonym zdjęciu jest lekko stopiona statuetka Oscara w pogorzelisku. 13 komentarzy, 13 udostępnień, 158 reakcji.

Źródło: Facebook.com, 18.01.2024

Jak możemy przeczytać we wpisie, to „fotografia, którą na swoim Instagramie opublikowała Isabella Rossellini […]”. To prawda, aktorka i reżyserka na swoim profilu pod obrazem napisała [pisownia oryginalna]: „[…] wszystko, co ma związek z Hollywood i Los Angeles, sprawia, że w oczach mam łzy, na myśl o wszystkich przyjaciołach i kolegach, których dotknęła tragedia tych pożarów. Rozmawiałam o tym z moim bratem Roberto i wysłał mi to znalezione gdzieś, łamiące serce zdjęcie”.

Z tej wiadomości możemy się dowiedzieć, że ani aktorka, ani Roberto Rossellini nie są autorami zdjęcia. Skąd zatem ono pochodzi? Czy to na pewno prawdziwa fotografia?

Zrzut ekranu wiadomości Izabelli Rossellini z jej profilu na Instagramie, w której udostępniła omawiany obraz.

Źródło: Instagram.com, 12.01.2025

To obraz wygenerowany przy pomocy sztucznej inteligencji. Skąd to wiemy?

Obraz zdobył popularność również w anglo- i francuskojęzycznym internecie. Z tego powodu m.in. redakcja PolitiFact zajęła się weryfikacją jego autentycznościO ekspertyzę w kwestii zdjęcia poproszono Emmanuelle Salibę, rzeczniczkę GetReal Labs, firmy zajmującej się cyberbezpieczeństwem. 

Według analizy obraz wykonano przy pomocy sztucznej inteligencji, na co mają wskazywać nienaturalne cienie i światło. Dodano również, że wcześniej grafikę udostępniono na grupie facebookowej Guerrilla Art (post zarchiwizowano w celu fact-checkingu).

Na stronie francuskiej telewizji poinformowano, że również sam wygląd podstawy statuetki nie zgadza się z tym, który znamy z gali rozdania nagród Amerykańskiej Akademii Filmowej

Fałszywe treści o pożarach w Kalifornii oraz obrazy im towarzyszące

Pożary w Kalifornii są tematem fałszywych treści, których część opatrzona jest zdjęciami i obrazami, które mają uwiarygadniać przekaz. Oprócz obrazów wygenerowanych przy pomocy AI można się też natknąć na autentyczne zdjęcia, którym przypisano błędny kontekst

Doktor Ilona Dąbrowska, medioznawczyni Uniwersytetu Marii Curie-Skłodowskiej w Lublinie, w rozmowie z Wirtualnemedia.pl wyjaśniła, po co mogą powstawać podobne obrazy. Jej zdaniem celem może być doskonalenie sztucznej inteligencji, wygenerowanie ruchu na stronie oraz zbadanie reakcji użytkowników. W ten sposób oszuści mogą również badać podatność odbiorców na próby wyłudzenia danych czy pieniędzy.

Wspieraj niezależność!

Wpłać darowiznę i pomóż nam walczyć z dezinformacją, rosyjską propagandą i fake newsami.

*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter

Masz prawo do prawdy!

Przekaż 1,5% dla Demagoga

Wspieram