Czym są deepfakes?

Zrozumienie podróbek: Poznaj proces ich tworzenia, rozpoznaj związane z nimi zagrożenia i dowiedz się, jak się przed nimi chronić, zapewniając bezpieczeństwo swojej cyfrowej tożsamości i informacji.

Dark Web Skanowanie

Przez wiele dziesięcioleci filmowcy starali się zmieniać lub ulepszać ludzką biologię za pomocą makijażu, protetyki i dublerów, aby ich sceny były bardziej autentyczne. Jednak do czasu pojawienia się nowoczesnej technologii efektów wizualnych (VFX), wyniki były mieszane. Od filmów takich jak The Irishman i Captain Marvel po Avengers: Endgame, VFX pozwala wykonawcom przezwyciężyć fizyczne niemożliwości. Czasami hollywoodzkie VFX pozwala filmowcom łączyć twarze aktorów z ciałami innych wykonawców do ról, na które nie są gotowi lub nie są w stanie ich zagrać.  

Ale jak można sobie wyobrazić, nowoczesna hollywoodzka technologia VFX to kosztowna, delikatna i szczegółowa praca. Oczywiście nie każdy ma budżet w wysokości kilkuset milionów USD, aby wynająć studio VFX. Tutaj właśnie pojawia się technologia deepfake.

Czym jest deepfake? Definicja

"Deepfake" odnosi się do odtworzenia wyglądu i/lub głosu danej osoby przez rodzaj sztucznej inteligencji zwanej deep learning (stąd nazwa deepfake). Termin ten został ukuty w 2017 r. przez użytkownika Reddita, który udostępniał deepfake'i w serwisie.

Deepfakes to zazwyczaj fałszywe obrazy, filmy lub nagrania audio. Być może widziałeś popularne filmy przedstawiające celebrytów lub polityków mówiących coś, czego raczej nie powiedzieliby w prawdziwym życiu. Są to typowe przykłady deepfake'ów. Pojawienie się deepfake'ów budzi obawy o potencjalną "dywidendę kłamcy", w której rozprzestrzeniają się dezinformacje, podważając zaufanie i zniekształcając rzeczywistość.

Jak działają deepfakes?

Technologia Deepfake wykorzystuje zaawansowaną sztuczną inteligencję poprzez generatywne sieci przeciwstawne (GAN), składające się z dwóch krytycznych algorytmów: generatora i dyskryminatora. Generator inicjuje proces, tworząc początkową fałszywą treść w oparciu o pożądany wynik, przy użyciu szkoleniowego zbioru danych. Tymczasem dyskryminator ocenia autentyczność tej treści, wskazując obszary wymagające poprawy. Ten iteracyjny proces umożliwia generatorowi zwiększenie jego zdolności do tworzenia coraz bardziej realistycznych treści, podczas gdy dyskryminator staje się lepszy w identyfikowaniu rozbieżności do korekty.

Sieci GAN odgrywają kluczową rolę w tworzeniu deepfake'ów, analizując wzorce na prawdziwych obrazach w celu replikacji tych wzorców w sfabrykowanych treściach. W przypadku zdjęć systemy GAN badają wiele kątów obrazów celu, aby uchwycić kompleksowe szczegóły. W przypadku filmów analizują nie tylko kąty, ale także zachowanie, ruch i wzorce mowy. Ta wieloaspektowa analiza przechodzi liczne iteracje przez dyskryminator, aby udoskonalić realizm produktu końcowego.

Deepfake'i powstają za pomocą dwóch podstawowych metod: manipulowania oryginalnym materiałem wideo w celu zmiany tego, co mówi lub robi cel (deepfake'i źródłowego materiału wideo) lub zamiany twarzy celu na ciało innej osoby (zamiana twarzy). Źródłowe deepfake'i wideo obejmują oparty na sieci neuronowej autoenkoder, który analizuje wideo, aby zrozumieć, a następnie nałożyć mimikę twarzy i język ciała celu na oryginalny materiał filmowy. W przypadku audio podobny proces klonuje głos osoby, umożliwiając replikację dowolnej mowy.

Kluczowe techniki tworzenia deepfake obejmują:

  • Podrabianie źródłowego wideo: Wykorzystuje autoenkoder z koderem do analizy atrybutów i dekoderem do zastosowania tych atrybutów na docelowym wideo.
  • Audio deepfakes: Wykorzystuje sieci GAN do klonowania wzorców wokalnych, umożliwiając tworzenie realistycznych replik głosu.
  • Synchronizacja ust: Dopasowuje nagrania głosowe do wideo, zwiększając iluzję osoby wypowiadającej nagrane słowa, dodatkowo wspierane przez rekurencyjne sieci neuronowe dla zwiększenia realizmu.

Tworzenie deepfake'ów ułatwiają zaawansowane technologie, takie jak konwolucyjne sieci neuronowe (CNN) do rozpoznawania twarzy, autoenkodery do mapowania atrybutów, przetwarzanie języka naturalnego (NLP) do generowania syntetycznego dźwięku oraz moc obliczeniowa zapewniana przez wysokowydajne systemy komputerowe. Narzędzia takie jak Deep Art Effects, Deepswap i FaceApp stanowią przykład dostępności generowania deepfake'ów, wskazując na przyszłość, w której tworzenie przekonujących deepfake'ów będzie w zasięgu wielu osób.

Czy deepfakes są legalne?

W swej istocie deepfakes nie są z natury nielegalne; ich legalność zależy w dużej mierze od ich treści i intencji. Ta innowacyjna technologia może wkroczyć na terytorium niezgodne z prawem, jeśli narusza obowiązujące przepisy dotyczące pornografii dziecięcej, zniesławienia, mowy nienawiści lub innych działań przestępczych.

Do chwili obecnej istnieje niewiele przepisów dotyczących deepfake'ów i różnią się one znacznie w zależności od kraju. Rozprzestrzenianie się technologii deepfake budzi jednak obawy o rozprzestrzenianie się fałszywych twierdzeń i ich wpływ na zaufanie publiczne i dyskurs. Istnieją już godne uwagi wyjątki w Stanach Zjednoczonych, gdzie niektóre stany podjęły działania mające na celu ograniczenie szkodliwych skutków technologii deepfake:

  • Teksas: Stan ten uchwalił przepisy zakazujące tworzenia i rozpowszechniania deepfake'ów z zamiarem zakłócania wyborów. Posunięcie to ma na celu ochronę integralności procesu wyborczego poprzez zapobieganie rozpowszechnianiu wprowadzających w błąd lub fałszywych informacji o kandydatach za pomocą hiperrealistycznych fałszywych filmów lub nagrań audio. Dodatkowo, Teksas uchwalił prawo ukierunkowane konkretnie na podróbki o charakterze jednoznacznie seksualnym rozpowszechniane bez zgody podmiotu, mające na celu ochronę osób przed niepokojem lub zażenowaniem spowodowanym takimi treściami. Oba wykroczenia są traktowane jako wykroczenia klasy A, a potencjalne kary obejmują do roku więzienia i grzywny w wysokości do 4000 USD.
  • Wirginia: Uznając osobiste i społeczne szkody wyrządzane przez pornografię typu deepfake, Virginia wprowadziła specjalny zakaz rozpowszechniania takich treści. Prawo to dotyczy deep fake'ów, które wykorzystują seksualnie osoby bez ich zgody, oferując ofiarom prawną drogę do dochodzenia sprawiedliwości. Rozpowszechnianie pornografii zemsty, w tym pornografii deepfake, jest klasyfikowane jako wykroczenie klasy 1, zagrożone karą do 12 miesięcy pozbawienia wolności i grzywną w wysokości do 2500 USD.
  • Kalifornia: Koncentrując się zarówno na politycznych, jak i osobistych konsekwencjach deepfake'ów, Kalifornia uchwaliła przepisy zakazujące korzystania z deepfake'ów, które mają na celu oszukanie wyborców w ciągu 60 dni przed wyborami. Dodatkowo, stan ten zdelegalizował tworzenie i rozpowszechnianie niesensownej pornografii deepfake, odzwierciedlając rosnące obawy o wykorzystanie tej technologii do naruszania prywatności i godności osób fizycznych.

Mozaika przepisów podkreśla szersze wyzwanie: wiele osób pozostaje nieświadomych technologii deepfake, jej potencjalnych zastosowań i zagrożeń, jakie stwarza. Ta luka w świadomości przyczynia się do powstania środowiska prawnego, w którym ofiary deepfake'ów, poza określonymi scenariuszami objętymi prawem stanowym, często znajdują się bez jasnego środka prawnego. Ewoluujący charakter technologii deepfake i jej implikacje wymagają bardziej poinformowanej opinii publicznej, a także kompleksowych ram prawnych w celu ochrony osób przed jej potencjalnym niewłaściwym wykorzystaniem.

W jaki sposób deepfakes są niebezpieczne?

Technologia Deepfake, choć innowacyjna, niesie ze sobą poważne ryzyko. Nie chodzi tylko o tworzenie fałszywych obrazów lub filmów; konsekwencje rozciągają się na poważne sfery, takie jak:

  • Bezpieczeństwo osobiste, z osobami zagrożonymi szantażem.
  • Integralność procesów demokratycznych poprzez tworzenie wprowadzających w błąd treści politycznych.
  • Rynki finansowe, podatne na manipulacje ze strony sfabrykowanych raportów.
  • Identity kradzież danych osobowych z ryzykiem ich niewłaściwego wykorzystania.

Zmieniający się krajobraz wymaga zdecydowanej reakcji, łączącej czujność, rozwiązania technologiczne i ramy prawne w celu ochrony przed tymi pojawiającymi się zagrożeniami.

Jak wykrywać podróbki?

Wykrywanie treści typu deepfake wymaga zwrócenia uwagi na określone wskaźniki wizualne i tekstowe. Oto kilka kluczowych znaków, na które należy zwrócić uwagę:

Wskaźniki wizualne:

  • Nietypowe ułożenie twarzy lub niezręczna mimika.
  • Nienaturalne ruchy twarzy lub ciała.
  • Niespójne kolory w całym filmie.
  • Dziwny wygląd po przybliżeniu lub powiększeniu.
  • Niedopasowany lub niespójny dźwięk.
  • Brak naturalnego mrugania u ludzi.

Wskaźniki tekstowe:

  • Błędy ortograficzne i niepoprawne gramatycznie zdania.
  • Płynność zdań wydaje się nienaturalna.
  • Adresy e-mail, które wyglądają podejrzanie.
  • Sformułowania, które nie pasują do oczekiwanego stylu nadawcy.
  • Wiadomości wyrwane z kontekstu lub nieistotne.

Ponadto należy wziąć pod uwagę anomalie behawioralne i kontekstowe:

  • Niespójności behawioralne: Należy zwracać uwagę na zachowanie i maniery danej osoby. Deepfakes mogą niedokładnie odwzorowywać subtelne cechy osobowości, nawykowe ruchy lub reakcje emocjonalne, sprawiając, że dana osoba wygląda nieco inaczej.
  • Anomalie kontekstowe: Przeanalizuj kontekst, w którym pojawia się wideo lub audio. Rozbieżności w tle, nieoczekiwane interakcje ze środowiskiem lub anomalie w fabule mogą wskazywać na manipulację.

Postępy w sztucznej inteligencji poprawiają wykrywanie tych znaków, ale bycie poinformowanym o tych wskaźnikach jest niezbędne do identyfikacji deepfake'ów.

Jak bronić się przed deepfake'ami?

Kluczową strategią obrony przed deepfake'ami jest wykorzystanie zaawansowanej technologii do identyfikacji i blokowania tych sfałszowanych mediów.

Agencje rządowe, takie jak Agencja Zaawansowanych Projektów Badawczych Departamentu Obrony Stanów Zjednoczonych (DARPA), znajdują się w czołówce, opracowując najnowocześniejsze rozwiązania pozwalające odróżnić treści prawdziwe od zmanipulowanych. Podobnie giganci mediów społecznościowych i firmy technologiczne stosują innowacyjne metody w celu zapewnienia autentyczności mediów udostępnianych na ich platformach.

Na przykład, niektóre platformy wykorzystują technologię blockchain do weryfikacji pochodzenia filmów i zdjęć, ustanawiając zaufane źródła i skutecznie zapobiegając rozprzestrzenianiu się fałszywych treści.

Wdrażanie polityki mediów społecznościowych

Uznając potencjalne szkody wyrządzone przez złośliwe podróbki, platformy mediów społecznościowych, takie jak Facebook i Twitter, zajęły zdecydowane stanowisko, zakazując ich. Polityki te są częścią szerszych wysiłków mających na celu ochronę użytkowników przed negatywnymi skutkami zwodniczych mediów, podkreślając rolę zarządzania platformami w utrzymaniu wiarygodności cyfrowej.

Przyjęcie oprogramowania do głębokiego wykrywania podróbek

Walka z deepfake'ami jest również wspierana przez innowacje sektora prywatnego. Wiele firm oferuje zaawansowane oprogramowanie do wykrywania deepfake'ów, zapewniając niezbędne narzędzia do identyfikacji zmanipulowanych mediów:

  • Inicjatywa Adobe dotycząca autentyczności treści: Firma Adobe wprowadziła system umożliwiający twórcom dołączanie podpisu cyfrowego do swoich filmów i zdjęć. Podpis ten zawiera szczegółowe informacje o tworzeniu mediów, oferując przejrzystą metodę weryfikacji autentyczności.
  • Narzędzie wykrywające Microsoftu: Microsoft opracował narzędzie oparte na sztucznej inteligencji, które analizuje filmy i zdjęcia w celu oceny ich autentyczności. Zapewnia ono wynik zaufania wskazujący prawdopodobieństwo manipulacji, pomagając użytkownikom dostrzec wiarygodność napotkanych mediów.
  • Operacja Minerva: Inicjatywa ta skupia się na katalogowaniu znanych deepfake'ów i ich cyfrowych odcisków palców. Porównując nowe filmy z tym katalogiem, można zidentyfikować modyfikacje wcześniej wykrytych podróbek, usprawniając proces wykrywania.
  • Platforma wykrywania Sensity: Sensity oferuje platformę, która wykorzystuje głębokie uczenie się do wykrywania fałszywych mediów, analogicznie do tego, jak narzędzia antywirusowe identyfikują wirusy i złośliwe oprogramowanie. Ostrzega ona użytkowników za pośrednictwem poczty e-mail, jeśli napotkają treści deepfake, dodając dodatkową warstwę ochrony.

Jak się chronić? Praktyczne kroki

Oprócz tych rozwiązań technologicznych, osoby fizyczne mogą podjąć praktyczne kroki w celu ochrony przed deepfake'ami:

  • Bądź na bieżąco: Świadomość istnienia i natury deepfake'ów jest pierwszym krokiem w obronie. Rozumiejąc technologię i jej potencjalne niewłaściwe wykorzystanie, osoby mogą bardziej krytycznie podchodzić do treści cyfrowych.
  • Weryfikuj źródła: Zawsze weryfikuj źródło informacji. Poszukaj potwierdzających dowodów z renomowanych źródeł, zanim zaakceptujesz jakiekolwiek media jako prawdziwe.
  • Używaj zaufanych narzędzi do wykrywania: Korzystaj z narzędzi do wykrywania deepfake, jeśli są dostępne. Wiele firm i platform udostępnia narzędzia lub wtyczki zaprojektowane w celu identyfikacji zmanipulowanych treści.
  • Zgłaszanie podejrzanych treści: Jeśli napotkasz coś, co wygląda na deepfake, zgłoś to platformie hostującej daną zawartość. Raporty użytkowników odgrywają kluczową rolę w pomaganiu platformom w identyfikowaniu i podejmowaniu działań przeciwko zwodniczym mediom.

Obrona przed deepfake'ami wymaga wieloaspektowego podejścia, łączącego innowacje technologiczne, egzekwowanie polityki i świadomą czujność. Będąc na bieżąco i wykorzystując dostępne narzędzia i strategie, osoby i organizacje mogą lepiej chronić się przed zgubnymi skutkami technologii deepfake.

Do czego wykorzystywane są deepfakes?

Deepfakes, choć często omawiane w kontekście ich potencjalnej szkodliwości, mają szereg zastosowań w różnych dziedzinach. Zrozumienie tych zastosowań pomaga docenić złożoność i dwoistą naturę technologii deepfake. Oto kilka kluczowych zastosowań:

  • Rozrywka i media: Technologia Deepfake jest coraz częściej wykorzystywana w filmach i grach wideo do ulepszania efektów wizualnych, takich jak starzenie się lub odmładzanie aktorów lub przywracanie zmarłych wykonawców do życia w celu pojawienia się w epizodzie. Ta aplikacja może również obejmować tworzenie realistycznych wirtualnych awatarów do interakcji online.
  • Edukacja i szkolenia: W kontekście edukacyjnym deepfakes mogą tworzyć wciągające doświadczenia edukacyjne, takie jak rekonstrukcje historyczne lub symulacje. Mogą na przykład ożywiać postacie historyczne, oferując uczniom dynamiczny sposób angażowania się w historię.
  • Sztuka i kreatywność: Artyści i twórcy eksplorują deepfakes jako nowe medium ekspresji. Obejmuje to generowanie nowych form sztuki cyfrowej, satyry lub badanie granic między rzeczywistością a sztucznością.
  • Reklama i marketing: Marki mogą wykorzystywać technologię deepfake do tworzenia bardziej angażujących i spersonalizowanych treści marketingowych. Na przykład, deepfakes pozwalają na wykorzystanie ambasadorów marki w różnych kampaniach bez ich fizycznej obecności, potencjalnie w różnych językach, aby zaspokoić potrzeby globalnej publiczności.
  • Kampanie polityczne i społeczne: Choć kontrowersyjne, deepfakes były wykorzystywane do podnoszenia świadomości na temat kwestii społecznych lub potencjalnych zagrożeń związanych z dezinformacją. Starannie przygotowane deepfakes mogą podkreślać znaczenie krytycznego myślenia w erze cyfrowej.
  • Tworzenie mediów syntetycznych: Deepfakes są częścią szerszej kategorii mediów syntetycznych, wykorzystywanych do generowania realistycznego dźwięku, wideo lub obrazów do tworzenia treści. Może to usprawnić proces produkcji wiadomości, filmów dokumentalnych i innych form medialnych.

Chociaż deepfakes mają obiecujący potencjał w tych zastosowaniach, ważne jest, aby korzystać z nich w sposób odpowiedzialny, zapewniając zachowanie standardów etycznych, aby zapobiec niewłaściwemu wykorzystaniu i chronić prawa i prywatność osób fizycznych.

Przykłady deepfake'ów

Znane przykłady deepfake'ów obejmują wideo fałszywego Baracka Obamy naśmiewającego się z Donalda Trumpa, fałszywego Marka Zuckerberga chwalącego się kontrolowaniem danych miliardów ludzi oraz okrągły stół fałszywych celebrytów, takich jak Tom Cruise, George Lucas, Robert Downey Jr, Jeff Goldblum i Ewan McGregor.

Czym jest inżynieria społeczna?

Czym jest Catfishing?

Zagrożenia związane ze sztuczną inteligencją w cyberprzestrzeni Security

Czym jest phishing?

Najczęściej zadawane pytania

Osoby fizyczne mogą pozywać za tworzenie deepfake'ów, powołując się na zniesławienie, cierpienie emocjonalne lub naruszenie własności intelektualnej. Konsultacja prawna ma kluczowe znaczenie dla zrozumienia praw i opcji.