Od wielu dekad filmowcy starali się zmieniać lub poprawiać ludzką biologię za pomocą makijażu, protez i dublerów, aby ich sceny były bardziej autentyczne. Jednak aż do nowoczesnych technologii efektów wizualnych (VFX) rezultaty były różne. Dzięki filmom takim jak Irlandczyk, Kapitan Marvel czy Avengers: Koniec gry, VFX pozwala aktorom przełamywać fizyczne niemożliwości. Czasami technologia VFX w Hollywood pozwala reżyserom łączyć twarze aktorów z ciałami innych wykonawców w rolach, do których nie są gotowi lub zdolni.
Jak można się spodziewać, nowoczesna technologia efektów specjalnych z Hollywood jest kosztowna, delikatna i szczegółowa. Oczywiście nie każdy ma budżet kilkuset milionów dolarów na zatrudnienie studia VFX. Właśnie tutaj wkracza technologia deepfake.
Co to jest deepfake? Definicja
„Deepfake” odnosi się do zrekonstruowanych mediów przedstawiających wygląd i/lub głos osoby za pomocą rodzaju sztucznej inteligencji zwanej głębokim uczeniem się (stąd nazwa, deepfake). Użytkownik Reddita, który udostępniał deepfake’i na stronie, ukuł termin w 2017 roku.
Deepfake’i to zazwyczaj fałszywe obrazy, filmy lub nagrania dźwiękowe. Możesz widzieć popularne wideo celebrytów lub polityków mówiących rzeczy, których raczej nie powiedzieliby w rzeczywistości. To są typowe przykłady deepfake’ów. Pojawienie się filmów deepfake budzi obawy o potencjalną „dywidendę kłamcy”, gdzie dezinformacja rozprzestrzenia się, podważając zaufanie i zniekształcając rzeczywistość.
Jak działają deepfake’i?
Technologia deepfake wykorzystuje zaawansowaną sztuczną inteligencję przez generatywne sieci przeciwstawne (GAN), składające się z dwóch krytycznych algorytmów: generatora i dyskryminatora. Generator inicjuje proces, tworząc początkowe fałszywe treści bazując na pożądanym rezultacie, używając zestawu danych treningowych. Tymczasem dyskryminator ocenia autentyczność tej treści, wskazując obszary do poprawy. Ten iteracyjny proces pozwala generatorowi zwiększać swoją zdolność do produkowania coraz bardziej realistycznych treści, podczas gdy dyskryminator staje się lepszy w identyfikowaniu rozbieżności do korekty.
GAN mają kluczową rolę w tworzeniu deepfake’ów, analizując wzorce w autentycznych obrazach, aby odwzorowywać te wzorce w stworzonych treściach. W przypadku fotografii systemy GAN badają wiele kątów obrazów celu, aby uchwycić szczegółowe informacje. Dla wideo analizują nie tylko kąty, ale także zachowania, ruch i wzorce mowy. Te wieloaspektowe analizy przechodzą liczne iteracje poprzez dyskryminatora, aby doskonalić realizm ostatecznego produktu.
Filmy deepfake powstają przez dwie główne metody: manipulowanie oryginalnym filmem, aby zmienić to, co cel mówi lub robi (deepfake filmów źródłowych) lub zamiana twarzy celu na ciało innej osoby (zamiany twarzy). Deepfake filmów źródłowych obejmują autoenkoder oparty na sieci neuronowej, który rozkłada film w celu zrozumienia i potem nałożenia mimiki i języka ciała celu na oryginalny materiał wideo. W przypadku audio podobny proces klonuje głos osoby, pozwalając mu naśladować dowolną pożądaną mowę.
Kluczowe techniki w tworzeniu deepfake'ów obejmują:
- Deepfake'i z użyciem wideo źródłowego: Wykorzystują autoenkoder z kodowaniem do analizy atrybutów i dekodowaniem do nakładania tych atrybutów na docelowe wideo.
- Audio deepfake'i: Zastosowanie sieci GAN do klonowania wzorców wokalnych, umożliwiających tworzenie realistycznych replik głosu.
- Synchrolizacja z ustami: Dopasowuje nagrania głosowe do wideo, poprawiając iluzję, że osoba mówi nagrane słowa, z dodatkowym wsparciem sieci neuronowych dla większego realizmu.
Tworzenie deepfake'ów jest ułatwione dzięki zaawansowanym technologiom, takim jak splotowe sieci neuronowe (CNN) do rozpoznawania twarzy, autoenkodery do mapowania atrybutów, przetwarzanie języka naturalnego (NLP) do generowania syntetycznego dźwięku oraz moc obliczeniowa dostarczana przez systemy wysokiej wydajności. Narzędzia takie jak Deep Art Effects, Deepswap i FaceApp ilustrują dostępność tworzenia deepfake'ów, pokazując przyszłość, w której tworzenie przekonujących deepfake'ów jest w zasięgu wielu osób.
Czy deepfake’i są legalne?
W swojej istocie, deepfake'i nie są z natury nielegalne; legalność w dużej mierze zależy od ich treści i zamiaru. Ta innowacyjna technologia może wkroczyć na nielegalną ścieżkę, jeśli narusza istniejące przepisy dotyczące pornografii dziecięcej, zniesławienia, mowy nienawiści czy innych przestępstw.
Do tej pory istnieje kilka przepisów prawnych, które bezpośrednio dotyczą deepfake'ów, i znacznie różnią się one w zależności od kraju. Jednakże proliferacja technologii deepfake budzi obawy o rozpowszechnianie fałszywych informacji i ich wpływ na zaufanie publiczne oraz dyskurs. Istnieją już znakomite wyjątki w Stanach Zjednoczonych, gdzie niektóre stany podjęły kroki w celu ograniczenia szkodliwych skutków technologii deepfake:
- Teksas: Ten stan wprowadził przepisy zakazujące tworzenia i dystrybucji deepfake'ów z zamiarem ingerowania w wybory. Ten krok ma na celu chronić integralność procesu wyborczego poprzez zapobieganie rozpowszechnianiu wprowadzających w błąd lub fałszywych informacji o kandydatach za pomocą hiperrealistycznych fałszywych wideo lub nagrań audio. Ponadto, Teksas ustanowił prawo, które szczególnie uderza w deepfake'i o charakterze erotycznym rozpowszechniane bez zgody osoby przedstawionej, mając na celu ochronę osób przed stresem lub zawstydzeniem spowodowanym taką treścią. Oba przestępstwa traktowane są jako wykroczenia klasy A, z potencjalnymi karami obejmującymi do roku więzienia i grzywny do 4000 dolarów.
- Wirginia: Uznając szkody osobiste i społeczne spowodowane przez pornografię deepfake, Wirginia zakazała rozpowszechniania takich treści. Ustawa ta uderza w deepfake'i seksualnie wykorzystujące osoby bez ich zgody, oferując ofiarom prawne możliwości szukania sprawiedliwości. Rozpowszechnianie porno deepfake, w tym revenge porn, jest klasyfikowane jako przestępstwo klasy 1, podlegające karze do 12 miesięcy więzienia i grzywnie do 2500 dolarów.
- Kalifornia: Skupiając się na politycznych i osobistych konsekwencjach deepfake'ów, Kalifornia wprowadziła prawa przeciwko używaniu deepfake'ów, które mają na celu oszukać wyborców w ciągu 60 dni przed wyborami. Ponadto, stan ten uznał za nielegalne tworzenie i dystrybucję niekonsensualnej pornografii deepfake, co odzwierciedla rosnące zaniepokojenie wykorzystaniem tej technologii do naruszania prywatności i godności osób.
Ten zlepek regulacji podkreśla szersze wyzwanie: wiele osób pozostaje nieświadomych technologii deepfake, jej potencjalnych zastosowań i zagrożeń, jakie niesie. Ten brak świadomości przyczynia się do środowiska prawnego, w którym ofiary deepfake'ów, poza określonymi sytuacjami objętymi przepisami stanowymi, często pozostają bez jasnych możliwości prawnych. Ewolucyjny charakter technologii deepfake i jej implikacje wymagają bardziej świadomej opinii publicznej oraz kompleksowych ram prawnych w celu ochrony osób przed jej potencjalnym nadużyciem.
Dlaczego deepfake’i są niebezpieczne?
Technologia deepfake, będąc innowacyjną, wprowadza znaczące ryzyka. Nie chodzi tylko o tworzenie fałszywych obrazów czy filmów; implikacje sięgają do poważnych dziedzin, takich jak:
- Bezpieczeństwo osobiste, z groźbami szantażu wobec jednostek.
- Integralność procesów demokratycznych, poprzez tworzenie błędnych treści politycznych.
- Rynki finansowe, podatne na manipulacje fałszywymi raportami.
- Kradzież tożsamości z danymi osobowymi narażonymi na nadużycie.
Zmieniający się krajobraz wymaga solidnej odpowiedzi, łącząc czujność, rozwiązania technologiczne i ramy prawne, aby chronić przed tymi nowymi zagrożeniami.
Jak wykrywać deepfake’i?
Wykrywanie treści deepfake wymaga uwagi na specyficzne wskaźniki wizualne i tekstowe. Oto kilka kluczowych znaków, na które należy zwrócić uwagę:
Wizualne wskaźniki:
- Nietypowe pozycjonowanie twarzy lub dziwne wyrażenia.
- Nienaturalne ruchy twarzy lub ciała.
- Niespójne kolory na wideo.
- Dziwne pojawienia się podczas zbliżenia lub powiększenia.
- Niedopasowany lub niespójny dźwięk.
- Brak naturalnego mrugania u ludzi.
Tekstowe wskaźniki:
- Błędy ortograficzne i niepoprawnie zbudowane zdania.
- Struktura zdań, która wydaje się nienaturalna.
- Podejrzanie wyglądające adresy e-mail.
- Zwroty, które nie pasują do oczekiwanego stylu nadawcy.
- Wiadomości, które są nie na miejscu lub nieistotne.
Dodatkowo rozważ anomalie w zachowaniu i kontekście:
- Niespójności w zachowaniu: Zwracaj uwagę na zachowanie i manieryzmy osoby. Deepfake może nie dokładnie replikować subtelnych cech osobowości, nawykowych ruchów czy odpowiedzi emocjonalnych, co sprawia, że osoba wydaje się nieco nie na miejscu.
- Anomalie kontekstowe: Analizuj kontekst, w jakim pojawia się wideo lub dźwięk. Rozbieżności w tle, nieoczekiwane interakcje z otoczeniem lub anomalie fabularne mogą wskazywać na manipulację.
Postępy w AI poprawiają wykrywanie tych znaków, ale stałe informowanie się o tych wskaźnikach jest niezbędne do identyfikacji deepfake'ów.
Jak bronić się przed deepfake’ami?
Kluczową strategią w obronie przed deepfake'ami jest wykorzystanie zaawansowanej technologii do identyfikacji i blokowania tych sfałszowanych mediów.
Agencje rządowe, takie jak amerykańska Agencja Zaawansowanych Projektów Badawczych Obrony (DARPA), są na czele, rozwijając nowatorskie rozwiązania do odróżniania prawdziwych treści od zmanipulowanych. Podobnie, giganci mediów społecznościowych i firmy technologiczne stosują innowacyjne metody, aby zapewnić autentyczność udostępnianych mediów na ich platformach.
Na przykład niektóre platformy korzystają z technologii blockchain, aby weryfikować pochodzenie wideo i obrazów, ustanawiając zaufane źródła i skutecznie zapobiegając rozprzestrzenianiu się fałszywych treści.
Wdrażanie polityk mediów społecznościowych
Uznając potencjalne szkody spowodowane złośliwymi deepfake'ami, platformy społecznościowe, takie jak Facebook i Twitter, przyjęły stanowcze postawy, zakazując ich. Polityki te są częścią szerszych działań mających na celu ochronę użytkowników przed negatywnymi skutkami mediów wprowadzających w błąd, podkreślając rolę zarządzania platformami w utrzymaniu zaufania cyfrowego.
Przyjmowanie oprogramowania do wykrywania deepfake'ów
Walka z deepfake'ami jest również wspierana przez innowacje sektora prywatnego. Szereg firm oferuje zaawansowane oprogramowanie do wykrywania deepfake'ów, dostarczając niezbędnych narzędzi do identyfikacji zmanipulowanych mediów:
- Inicjatywa autentyczności treści Adobe: Adobe wprowadziło system umożliwiający twórcom dołączanie podpisu cyfrowego do wideo i zdjęć. Podpis ten zawiera szczegółowe informacje o utworzeniu mediów, oferując przejrzysty sposób weryfikacji autentyczności.
- Narzędzie do wykrywania Microsoft: Microsoft opracował narzędzie zasilane przez AI, które analizuje wideo i zdjęcia, aby ocenić ich autentyczność. Dostarcza ono wynik zaufania wskazujący na prawdopodobieństwo manipulacji, pomagając użytkownikom ocenić wiarygodność napotykanych mediów.
- Operacja Minerva: Ta inicjatywa koncentruje się na katalogowaniu znanych deepfake'ów i ich cyfrowych odcisków palców. Porównując nowe filmy z tym katalogiem, możliwe jest identyfikowanie modyfikacji wcześniej odkrytych fałszerstw, co usprawnia proces wykrywania.
- Platforma wykrywania Sensity: Sensity oferuje platformę wykorzystującą uczenie głębokie do wykrywania mediów deepfake, analogiczną do sposobu, w jaki narzędzia anty-malware identyfikują wirusy i malware. Ostrzega użytkowników poprzez e-mail, jeśli napotkają treść deepfake, dodając dodatkową warstwę ochrony.
Jak możesz się chronić? Praktyczne kroki
Poza tymi rozwiązaniami technologicznymi, jednostki mogą podjąć praktyczne kroki w celu obrony przed deepfake'ami:
- Bądź na bieżąco: Świadomość istnienia i natury deepfake'ów jest pierwszym krokiem w obronie. Rozumiejąc technologię i jej potencjalne nadużycia, osoby mogą bardziej krytycznie podchodzić do treści cyfrowych.
- Weryfikuj źródła: Zawsze weryfikuj źródło informacji. Szukaj potwierdzających dowodów z renomowanych źródeł, zanim uznasz jakiekolwiek media za prawdziwe.
- Używaj zaufanych narzędzi do wykrywania: Korzystaj z narzędzi do wykrywania deepfake'ów, jeśli są dostępne. Wiele firm i platform oferuje narzędzia lub wtyczki zaprojektowane do identyfikacji zmanipulowanych treści.
- Zgłaś podejrzane treści: Jeśli napotkasz treści, które mogą być deepfake'iem, zgłoś je platformie, która je hostuje. Raporty użytkowników odgrywają kluczową rolę w pomaganiu platformom w identyfikacji i działaniu przeciwko zwodniczym mediom.
Obrona przed deepfake'ami wymaga wieloaspektowego podejścia, łączącego innowacje technologiczne, egzekwowanie przepisów i uświadomioną czujność. Będąc na bieżąco i wykorzystując dostępne narzędzia oraz strategie, jednostki i organizacje mogą lepiej chronić się przed szkodliwymi skutkami technologii deepfake.
Do czego używane są deepfake’i?
Deepfake'i, chociaż często omawiane w kontekście ich potencjalnej szkodliwości, mają wiele zastosowań w różnych dziedzinach. Zrozumienie tych użyć pomaga docenić złożoność i dwoistą naturę technologii deepfake. Oto kilka kluczowych zastosowań:
- Rozrywka i media: Technologia deepfake jest coraz częściej wykorzystywana w filmach i grach wideo do ulepszania efektów wizualnych, takich jak postarzenie lub odmłodzenie aktorów, czy przywracanie zmarłych artystów do życia dla cameo. To zastosowanie może także rozszerzyć się na tworzenie realistycznych awatarów wirtualnych do interakcji online.
- Edukacja i szkolenia: W kontekstach edukacyjnych deepfake'i mogą tworzyć immersyjne doświadczenia edukacyjne, takie jak historyczne rekonstrukcje czy symulacje. Na przykład mogą ożywiać postaci historyczne, oferując uczniom dynamiczny sposób angażowania się w historię.
- Sztuka i kreatywność: Artyści i twórcy eksplorują deepfake'i jako nowe medium wyrazu. To obejmuje generowanie nowych form sztuki cyfrowej, satyry lub eksplorowanie granic między rzeczywistością a sztucznością.
- Reklama i marketing: Marki mogą wykorzystywać technologię deepfake do tworzenia bardziej angażujących i spersonalizowanych treści marketingowych. Na przykład deepfake'i pozwalają na użycie ambasadorów markowych w różnych kampaniach bez ich fizycznej obecności, potencjalnie w różnych językach, by dotrzeć do globalnej publiczności.
- Kampanie polityczne i społeczne: Choć kontrowersyjne, deepfake'i były używane do zwiększania świadomości o kwestiach społecznych lub potencjalnych niebezpieczeństwach dezinformacji. Starannie przygotowane deepfake'i mogą podkreślać znaczenie krytycznego myślenia w erze cyfrowej.
- Tworzenie mediów syntetycznych: Deepfake'i są częścią szerszej kategorii mediów syntetycznych, wykorzystywanych do generowania realistycznego dźwięku, wideo lub obrazów dla tworzenia treści. To może usprawnić proces produkcji w wiadomościach, dokumentach i innych formach mediów.
Chociaż deepfake'i mają obiecujący potencjał w tych zastosowaniach, kluczowe jest odpowiedzialne ich wykorzystywanie, zapewniając przestrzeganie standardów etycznych, by zapobiec nadużyciom i chronić prawa oraz prywatność jednostek.
Przykłady deepfake’ów
Znane przykłady deepfake'ów to wideo z fałszywym Barackiem Obamą żartującym z Donalda Trumpa, fałszywy Mark Zuckerberg przechwalający się kontrolą nad danymi miliardów ludzi oraz rozmowa przy okrągłym stole z deepfake'owymi celebrytami jak Tom Cruise, George Lucas, Robert Downey Jr., Jeff Goldblum i Ewan McGregor.
Powiązane artykuły
Czym jest inżynieria społeczna?
Ryzyka AI w Cyberbezpieczeństwie
FAQs
Osoby mogą pozwać za stworzenie deepfake'a, powołując się na zniesławienie, stres emocjonalny lub naruszenie własności intelektualnej. Konsultacja prawna jest kluczowa dla zrozumienia praw i możliwości.