Strona główna Analizy Jak przeciwdziałać deepfake’om? Raport Think Tanku PE

Ten artykuł ma więcej niż 3 lata. Niektóre dane mogą być nieaktualne. Sprawdź, jak zmieniała się metodologia i artykuły w Demagogu.

Jak przeciwdziałać deepfake’om? Raport Think Tanku PE

Think Tank Parlamentu Europejskiego w najnowszej analizie Panelu Przyszłości Nauki i Technologii (Panel for Future of Science and Technology) mierzy się z dzieckiem nowej generacji mediów cyfrowych – deepfake’ami, które coraz częściej stają się przedmiotem obaw dotyczących ich potencjalnego nadużycia. Wyniki z badań zostaną przedstawione na zbliżającej się konferencji Panelu STOA (Science and Technology Options Assessment), która będzie miała miejsce 16 września 2021 roku.

Ten artykuł ma więcej niż 3 lata. Niektóre dane mogą być nieaktualne. Sprawdź, jak zmieniała się metodologia i artykuły w Demagogu.

Face Artificial Intelligence Board Web Network

Jak przeciwdziałać deepfake’om? Raport Think Tanku PE

Think Tank Parlamentu Europejskiego w najnowszej analizie Panelu Przyszłości Nauki i Technologii (Panel for Future of Science and Technology) mierzy się z dzieckiem nowej generacji mediów cyfrowych – deepfake’ami, które coraz częściej stają się przedmiotem obaw dotyczących ich potencjalnego nadużycia. Wyniki z badań zostaną przedstawione na zbliżającej się konferencji Panelu STOA (Science and Technology Options Assessment), która będzie miała miejsce 16 września 2021 roku.

STOA zleciło badanie polegające na przeanalizowaniu kontekstu społecznego, technicznego i prawnego w celu opracowania wytycznych do kodeksu usług cyfrowych (Digital Service Act), kodeksu o sztucznej inteligencji (Artificial Intelligence Act) oraz rozporządzenia ogólnego o ochronie danych osobowych (General Data Protection Regulation). Z proponowanymi regulacjami można zapoznać się w notatce Komisji Europejskiej.

Deepfake możemy zdefiniować jako technikę manipulowania ruchomymi oraz nieruchomymi obrazami (czyli np. zdjęciami oraz nagraniami video) przy użyciu sztucznej inteligencji.

Raport naświetla kluczowe cechy technologii deepfake. Zakres zastosowań deepfake’ów jest szeroki, podobnie jak ich zasięg oddziaływania. Mogą być wykorzystywane w produkcji mediów, interakcji człowiek-maszyna, wideokonferencjach, znajdować zastosowanie w nowatorskich działaniach medycznych (np. tworzenie głosu) czy sprzyjać kreatywnym rozwiązaniom. Niestety mają one również wysoki potencjał nadużyć. Szeroki zakres szkodliwych oddziaływań można podzielić na trzy kategorie: psychologiczne, społeczne i finansowe.

Psychologiczne: 

  • szantaż seksualny (niefizyczne formy przymusu w celu wyłudzenia od ofiary przysługi seksualnej, np. poprzez groźby ujawnienia zdjęć lub prywatnych materiałów),
  • zniesławienie, 
  • zastraszanie,
  • znęcanie się,
  • podważanie zaufania.

Finansowe: 

  • wyłudzanie środków, 
  • kradzież tożsamości,
  • oszustwa (np. ubezpieczeniowe, płatnościowe), 
  • manipulacja cenami akcji, 
  • szkodzenie wizerunkowi marki, 
  • zniszczenie reputacji. 

Społeczne: 

  • manipulacja informacjami medialnymi, 
  • naruszenie stabilności gospodarczej, 
  • działania przeciwko wymiarowi sprawiedliwości, 
  • dezorganizacja systemu naukowego,
  • działanie na szkodę zaufania społecznego, 
  • naruszanie zasad systemu demokratycznego,
  • manipulowanie wyborami,
  • szkody w stosunkach międzynarodowych, 
  • zagrażanie bezpieczeństwu narodowemu.

Skutki są z reguły kaskadową kombinacją szkodliwych działań, oddziałującą na różnych poziomach i nie ograniczając się do konsekwencji jednego rodzaju. Deepfake może uderzać zarówno personalnie w osobę rozpoznawalną i medialną, jak i skupiać się na grupach czy organizacjach, mając wówczas wpływ na poziomie społecznym. Deepfake’iem może być fałszywy film pornograficzny (z podłożoną twarzą lub głosem), zmanipulowany plik dźwiękowy przedstawiony jako dowód w sądzie lub fałszywe oświadczenie, które ma wpłynąć na pewien proces polityczny.

Prewencja i rozpoznawanie deepfake’ów 

Istnieją dwa sposoby wykrywania deepfake’ów: manualny i automatyczny. Manualny wymaga wykwalifikowanej osoby, która będzie analizowała materiał (np. film) i wyszukiwała niespójności lub śladów wskazujących na fałszerstwo. Taki sposób działania może sprawdzić się w przypadku niewielkich ilości materiałów, ale w przypadku współczesnego społeczeństwa, w którym spotykamy się z olbrzymią ilością informacji, jest ono niestety nieefektywne.

Wykrywanie automatyczne opiera się na oprogramowaniu, które korzysta z kombinacji różnych środków, do których należą: 

  • rozpoznawanie mówcy,
  • wykrywanie głosu,
  • rozpoznawanie twarzy, 
  • rozpoznawanie niespójności czasowych, 
  • kojarzenie artefaktów wizualnych,
  • wykrywanie braku autentycznych wskaźników.

Wbrew pozorom wykrywanie automatyczne nie jest w pełni skuteczne. Badania wykazują, że nawet proste modyfikacje w technice produkcji drastycznie obniżają niezawodność automatycznego detektora. Kolejnym problemem jest kompresowanie plików zamieszczanych w mediach społecznościowych i w komunikatorach czatowych, gdzie dzielimy się materiałami. Zmniejszanie np. liczby pikseli przez kompresje obniża zdolność oprogramowania do wykrywania fałszerstw.

Na szczęście pojawia się coraz więcej strategii technologicznych, które uniemożliwiają wykorzystanie obrazu lub pliku jako podstawy do tworzenia deepfake’ów lub ograniczają ich potencjalny wpływ. Strategie te obejmują ataki antagonistyczne na algorytmy manipulujące plikami, wzmacniają znaczniki autentyczności materiałów audiowizualnych oraz zapewniają pomoc techniczną.

Aby ograniczyć deepfake’i, w raporcie przedstawiono pięć obszarów, w ramach których należy podjąć działania:

  • technologia: proponowane rozwiązania obejmują zobowiązania i zakazy nakładane na dostawców technologii deepfake, ograniczanie ich rozpowszechniania, opracowanie systemów ograniczających ich wpływ oraz inwestowanie w edukację i podnoszenie świadomości wśród specjalistów IT.
  • tworzenie: wymiar ten odnosi się do osób tworzących deepfake oraz do użytkowników sztucznej inteligencji. Proponowane zmiany dotyczą sposobu, w jaki deepfake’i co do zasady powinny być oznakowane oraz jakie aplikacje należy usunąć z użytkowania.
  • obieg: szczególnie istotne są zmiany w zakresie obiegu treści, ponieważ mogą umożliwić ograniczenie rozpowszechniania deepfake’ów oraz zwiększenie kontroli nad ich obiegiem. Obejmują one sposoby wykrywania manipulacji plikami, ustanawiają procedury oznaczania deepfake’ów i usuwania ich, nadzoru nad decyzjami moderowania treścią oraz spowalniają ich obieg medialny przy zwiększaniu przejrzystości
  • cele: złośliwe manipulacje plikami elektronicznymi mogą mieć o wiele głębszy i długotrwały negatywny wpływ niż ich tradycyjne odpowiedniki. W związku z tym STOA proponuje zinstytucjonalizowane wsparcie dla ofiar deepfake’ów oraz uwzględnienie szczególnego uwierzytelniania i weryfikacji dla dowodów sądowych. Wiele sugerowanych środków prawnych wiąże się z RODO, m.in. rozszerzenie zakresu ochrony danych osobowych o informacje dotyczące głosu i twarzy, opracowanie ujednoliconego podejścia do prawidłowego wykorzystywania dóbr osobistych oraz objęcie protekcją danych osobowych dotyczących osób zmarłych.
  • odbiorcy: reakcje odbiorców stanowią fundamentalny czynnik określający zakres oddziaływania deepfake’ów na poziomie społecznym i grupowym. Sugerowane opcje strategiczne obejmują ustanowienie systemów uwierzytelniania, poszerzania wiedzy dotyczącej umiejętności obcowania i korzystania z mediów, pluralizacji krajobrazu medialnego oraz wspieranie wysokiej jakości praktyk dziennikarskich.

Ponadto środki te są uzupełnione o nadrzędne narzędzia instytucjonalne i organizacyjne, wspierające działania we wszystkich pięciu wymienionych obszarach. Zawierają one usystematyzowaną i zinstytucjonalizowaną  metodę gromadzenia informacji dotyczących technologii deepfake, co ma na celu ochronę organizacji przed zgubnymi konsekwencjami oraz ma pomóc zidentyfikowanie słabości tej technologii, a także znalezienie odpowiednich praktyk do przeciwdziałania.

Scenariusze na przyszłość

Deepfake’i prawdopodobnie staną się częścią augmented reality (rozszerzonej rzeczywistości). Zdaniem specjalistów z panelu STOA technologia ta stanie się niebawem szeroko dostępna, łatwa w użyciu, popularna i – podobnie jak aplikacje umożliwiające zmianę wizerunku (np. FaceApp lub Wombo) – stanie się ona częścią naszej codzienności.

Oczekiwany gwałtowny wzrost dostępności z dużym prawdopodobieństwem przełoży się na liczbę nadużyć. Mimo że aktualnie rzadko spotykamy się z deepfake’ami, wszystko wskazuje na to, że już niedługo staną się one częścią naszej rzeczywistości. Do najbardziej znanych przypadków można zaliczyć fałszywe orędzie królowej Elżbiety II z okazji Świąt Bożego Narodzenia czy przemówienie Baracka Obamy.

Możliwe, że coraz częściej będziemy kontaktować się z realistycznymi awatarami, które będę pełnić funkcję wirtualnych asystentów. Oprogramowania, takie jak Google Home lub Alexa od Amazon, prawdopodobnie zostaną poszerzone o wizerunek osoby tak, aby zmniejszyć przepaść poznawczą i odczuwać wrażenie nawiązywania relacji z realną osobą, a nie robotem.

Panel STOA wskazuje na potencjalne zagrożenia, których skutków jeszcze nie potrafimy przewidzieć. Jednym z nich jest np. awatar z głosem lub wizerunkiem krewnego, który prezentuje nam sfałszowane treści. Otwiera to nowe możliwości manipulacji, których konsekwencje pozostają dla nas na tę chwilę niewiadome.

Niestety aktualnie zmieniające się środowisko medialne ze względu na swój nacisk na komunikację wizualną stanowi dogodne i sprzyjające środowisko dla deepfake’ów. Możliwość uczestniczenia przez użytkowników mediów społecznościowych w kreowaniu wiadomości była odbierana jako zjawisko pozytywne, wspierające procesy demokratyzacji. Z upływem czasu okazało się, iż media społecznościowe utrudniły proces kontroli informacji. Problematyzują również wszelkie próby stworzenia etycznych norm i kodeksów postępowania w Internecie, tworząc przestrzeń dla dezinformacji (celowego rozprzestrzeniania fałszywych informacji), misinformacji (informacji fałszywych, lecz udostępnionych nieintencjonalnie lub bez złych intencji) oraz informacji złośliwych (czyli prawdziwych informacji wykorzystywanych do szkodzenia osobom, instytucjom lub państwom). 

Jednym z największych problemów związanych ze zjawiskiem deepfake’ów jest rozmycie prawdy. Zjawisko to prowadzi do erozji zaufania i zbiorowej dezorientacji. Granice między prawdą a fałszem będą coraz częściej zamazywane. Odkrycie fałszerstwa coraz rzadziej przekonuje odbiorców do tego, że zastosowano manipulację, a dociekanie i przekazywanie prawdy przez dziennikarzy jest coraz trudniejsze z powodu obniżającego się zaufania. Samo istnienie technologii deepfake wymaga wyższej nieufności, co już oznacza, że prawda staje się bardziej rozmyta. W jednym z badań cytowanych w raporcie, okazało się, że poinformowanie odbiorców o tym, że treść, z którą się zapoznają, może być fałszywa, uśpiła ich czujność i spowodowała obniżenie zaufania do prezentowanych filmów niezależnie od tego, czy były prawdziwe, czy zmanipulowane.  

Technologia deepfake podobnie jak cały trwający proces digitalizacji stanowi dla współczesnego globalnego społeczeństwa olbrzymie wyzwanie. Może zarówno być wykorzystywana w sposób słuszny, jak i prowadzący do nadużyć. Związane z nią zagrożenia prawdopodobnie obniżą zaufanie społeczne oraz utrudnią proces weryfikacji informacji. Regulacja aspektów technologicznych jest niezbędna, jednak niewystarczająca. Kluczem jest medialna edukacja oraz dbałość o instytucje stojące na straży praw i danych osobowych. 

Artykuł powstał w ramach projektu „Fakty w debacie publicznej”, realizowanego z dotacji programu „Aktywni Obywatele – Fundusz Krajowy”, finansowanego z Funduszy EOG.

*Jeśli znajdziesz błąd, zaznacz go i wciśnij Ctrl + Enter

Pomóż nam sprawdzać, czy politycy mówią prawdę.

Nie moglibyśmy kontrolować polityków, gdyby nie Twoje wsparcie.

Wpłać

Dowiedz się, jak radzić sobie z dezinformacją w sieci

Poznaj przydatne narzędzia na naszej platformie edukacyjnej

Sprawdź!