Per molti decenni, i registi hanno cercato di cambiare o migliorare la biologia umana con trucco, protesi e controfigure per rendere le loro scene più autentiche. Ma fino all'arrivo della moderna tecnologia degli effetti visivi (VFX), i risultati erano un miscuglio. Dai film come The Irishman e Captain Marvel a Avengers: Endgame, i VFX permettono agli attori di superare impossibilità fisiche. A volte, i VFX di Hollywood permettono ai registi di unire il volto degli attori con i corpi di altri interpreti per ruoli per cui non sono pronti o capaci di interpretare.
Ma come puoi immaginare, la moderna tecnologia VFX di Hollywood è un lavoro costoso, delicato e dettagliato. Chiaramente, non tutti hanno un budget di alcune centinaia di milioni di USD per assumere uno studio VFX. Ecco dove entra in gioco la tecnologia deepfake.
Che cos'è un deepfake? Una definizione
Un "deepfake" si riferisce a media ricreati dell'aspetto e/o voce di una persona da un tipo di intelligenza artificiale chiamato deep learning (da qui il nome, deepfake). Un utente di Reddit che condivideva deepfakes sul sito ha coniato il termine nel 2017.
I deepfakes sono solitamente immagini, video o registrazioni audio false. Potresti aver visto video popolari di celebrità o politici che dicono qualcosa che è improbabile che dicano nella realtà. Questi sono esempi comuni di deepfakes. La comparsa di video deepfake solleva preoccupazioni su un potenziale 'dividendo del bugiardo', dove la disinformazione si diffonde, minando la fiducia e distorcendo la realtà.
Come funzionano i deepfakes?
La tecnologia deepfake utilizza sofisticata intelligenza artificiale attraverso le reti generative avversarie (GAN), comprendenti due algoritmi critici: il generatore e il discriminatore. Il generatore avvia il processo creando il contenuto falso iniziale basato su un risultato desiderato, utilizzando un set di dati di addestramento. Nel frattempo, il discriminatore valuta l'autenticità di questo contenuto, individuando aree di miglioramento. Questo processo iterativo consente al generatore di migliorare la sua capacità di produrre contenuti sempre più realistici, mentre il discriminatore diventa più abile nell'identificare le discrepanze da correggere.
Le GAN giocano un ruolo fondamentale nella creazione dei deepfake analizzando i modelli nelle immagini genuine per replicare questi modelli nel contenuto fabbricato. Per le fotografie, i sistemi GAN esaminano più angolazioni delle immagini del soggetto per catturare dettagli completi. Per i video, analizzano non solo angoli ma anche comportamento, movimento e modelli di discorso. Questa analisi multifaccettata subisce numerose iterazioni attraverso il discriminatore per affinare il realismo del prodotto finale.
I video deepfake emergono attraverso due metodi principali: manipolando un video originale per alterare ciò che il soggetto dice o fa (deepfake di video sorgente) o scambiando il volto del soggetto sul corpo di un'altra persona (scambi di volti). I deepfake di video sorgente coinvolgono un autoencodificatore basato su rete neurale che disseziona il video per comprendere e poi sovrapporre le espressioni facciali e il linguaggio del corpo del soggetto sul filmato originale. Per l'audio, un processo simile clona la voce di una persona, permettendole di replicare qualsiasi discorso desiderato.
Tecniche chiave nella creazione di deepfake includono:
- Deepfake di video sorgente: Utilizza un autoencoder con un encoder per analizzare gli attributi e un decoder per applicare questi attributi al video di destinazione.
- Deepfake audio: Impiega GANs per clonare schemi vocali, permettendo la creazione di repliche vocali realistiche.
- Sincronizzazione labiale: Abbina le registrazioni vocali al video, migliorando l'illusione che il soggetto stia pronunciando le parole registrate, supportato ulteriormente da reti neurali ricorrenti per un realismo maggiore.
La creazione di deepfake è facilitata da tecnologie avanzate come le reti neurali convoluzionali (CNN) per il riconoscimento facciale, autoencoder per la mappatura degli attributi, elaborazione del linguaggio naturale (NLP) per generare audio sintetico, e la potenza di calcolo offerta da sistemi di calcolo ad alte prestazioni. Strumenti come Deep Art Effects, Deepswap e FaceApp esemplificano l'accessibilità della generazione di deepfake, indicando un futuro dove creare deepfake convincenti sarà alla portata di molti.
I deepfakes sono legali?
Alla loro base, i deepfake non sono intrinsecamente illegali; la legalità dipende in gran parte dal loro contenuto e intento. Questa tecnologia innovativa può attraversare confini illegali se viola leggi esistenti su pornografia infantile, diffamazione, discorsi di odio o altre attività criminali.
Ad oggi, ci sono poche leggi che specificamente prendono di mira i deepfake e variano significativamente da paese a paese. Tuttavia, la proliferazione della tecnologia deepfake solleva preoccupazioni sulla diffusione di false affermazioni e sul loro impatto sulla fiducia pubblica e sul discorso. Ci sono già eccezioni notevoli negli Stati Uniti, dove alcuni stati hanno preso provvedimenti per limitare gli effetti dannosi della tecnologia deepfake:
- Texas: Questo stato ha promulgato una normativa che vieta la creazione e distribuzione di deepfake con l'intenzione di interferire con le elezioni. Questa mossa mira a salvaguardare l'integrità del processo elettorale prevenendo la diffusione di informazioni fuorvianti o false sui candidati attraverso video o registrazioni audio iper-realistiche false. Inoltre, il Texas ha approvato una legge che prende di mira specificamente i deepfake sessualmente espliciti distribuiti senza il consenso del soggetto, mirando a proteggere gli individui da disagio o imbarazzo causati da tali contenuti. Entrambi i reati sono trattati come reati di Classe A, con potenziali sanzioni che includono fino a un anno di carcere e multe fino a $4.000 .
- Virginia: Riconoscendo il danno personale e sociale causato dalla pornografia deepfake, la Virginia ha specificamente vietato la diffusione di tali contenuti. Questa legge prende di mira i deepfake che sfruttano sessualmente individui senza il loro consenso, offrendo alle vittime una via legale per ottenere giustizia. La diffusione di pornografia vendicativa, inclusa la pornografia deepfake, è classificata come reato di Classe 1, punibile con fino a 12 mesi di carcere e una multa fino a $2.500.
- California: Con un focus sia sulle ramificazioni politiche che personali dei deepfake, la California ha approvato leggi contro l'uso dei deepfake che mirano a ingannare gli elettori entro 60 giorni da un'elezione. Inoltre, lo stato ha reso illegale creare e distribuire pornografia deepfake non consensuale, riflettendo una crescente preoccupazione sull'uso di questa tecnologia per minare la privacy e la dignità delle persone.
Il mosaico di regolamenti sottolinea una sfida più ampia: molte persone rimangono inconsapevoli della tecnologia deepfake, delle sue potenziali applicazioni e dei rischi che comporta. Questo divario di consapevolezza contribuisce a un ambiente legale in cui le vittime dei deepfake, al di fuori degli scenari specifici coperti dalle leggi statali, spesso si trovano senza chiari ricorsi legali. La natura in evoluzione della tecnologia deepfake e le sue implicazioni richiedono un pubblico più informato, nonché quadri legali completi per proteggere le persone dal suo eventuale abuso.
Perché i deepfakes sono pericolosi?
La tecnologia deepfake, sebbene innovativa, introduce rischi sostanziali. Non si tratta solo di creare immagini o video falsi; le implicazioni si estendono in ambiti seri come:
- Sicurezza personale, con individui minacciati di ricatto.
- L'integrità dei processi democratici, attraverso la creazione di contenuti politici fuorvianti.
- I mercati finanziari, vulnerabili a manipolazioni da parte di rapporti fabbricati.
- Furto di identità con dati personali a rischio di uso improprio.
Il panorama in evoluzione richiede una risposta robusta, che combina vigilanza, soluzioni tecnologiche e quadri legali per proteggere contro queste minacce emergenti.
Come rilevare i deepfakes?
Rilevare contenuti deepfake richiede attenzione a specifici indicatori visivi e testuali. Ecco alcuni segnali chiave da osservare:
Indicatori visivi:
- Posizioni facciali insolite o espressioni scomode.
- Movimenti innaturali del viso o del corpo.
- Colorazioni non uniformi nel video.
- Apparenze strane quando si zooma o si ingrandisce.
- Audio non corrispondente o incoerente.
- Mancanza di battiti di palpebre naturali nelle persone.
Indicatori testuali:
- Errori di ortografia e frasi grammaticalmente scorrette.
- Flusso delle frasi che sembra innaturale.
- Indirizzi email che sembrano sospetti.
- Frasi che non corrispondono allo stile atteso del mittente.
- Messaggi che sono fuori contesto o irrilevanti.
Considerare inoltre comportamenti e anomalie contestuali:
- Incoerenze comportamentali: Prestare attenzione al comportamento e ai modi del soggetto. I deepfake potrebbero non replicare accuratamente sottili tratti della personalità, movimenti abituali o risposte emotive, facendo apparire il soggetto leggermente fuori luogo.
- Anomalie contestuali: Analizzare il contesto in cui appare il video o l'audio. Discrepanze nello sfondo, interazioni inaspettate con l'ambiente o anomalie nella trama possono indicare manipolazione.
I progressi dell'IA stanno migliorando il rilevamento di questi segnali, ma rimanere informati su questi indicatori è essenziale per identificare i deepfake.
Come difendersi dai deepfakes?
Una strategia chiave nella difesa contro i deepfake prevede l'uso di tecnologia avanzata per identificare e bloccare questi media falsificati.
Agenzie governative come la Defense Advanced Research Projects Agency (DARPA) del Dipartimento della Difesa degli Stati Uniti sono all'avanguardia nello sviluppo di soluzioni all'avanguardia per distinguere il vero dal contenuto manipolato. Allo stesso modo, i giganti dei social media e le aziende tecnologiche stanno impiegando metodi innovativi per garantire l'autenticità dei media condivisi sulle loro piattaforme.
Ad esempio, alcune piattaforme utilizzano la tecnologia blockchain per verificare le origini di video e immagini, stabilendo fonti affidabili ed efficacemente prevenendo la diffusione di contenuti falsi.
Implementazione di politiche sui social media
Riconoscendo il potenziale danno causato dai deepfake malevoli, piattaforme di social media come Facebook e Twitter hanno adottato una posizione ferma vietandoli. Queste politiche fanno parte di uno sforzo più ampio per proteggere gli utenti dagli impatti negativi dei media ingannevoli, sottolineando il ruolo della governance delle piattaforme nel mantenere l'affidabilità digitale.
Adottare software di rilevamento deepfake
La lotta contro i deepfake è supportata anche dall'innovazione del settore privato. Numerose aziende offrono software di rilevamento deepfake avanzati, fornendo strumenti essenziali per identificare media manipolati:
- Iniziativa di autenticità dei contenuti di Adobe: Adobe ha introdotto un sistema che consente ai creatori di allegare una firma digitale ai loro video e foto. Questa firma include informazioni dettagliate sulla creazione dei media, offrendo un metodo trasparente per verificare l'autenticità.
- Strumento di rilevamento di Microsoft: Microsoft ha sviluppato uno strumento alimentato dall'IA che analizza video e foto per valutarne l'autenticità. Fornisce un punteggio di fiducia che indica la probabilità di manipolazione, aiutando gli utenti a discernere l'affidabilità dei media che incontrano.
- Operazione Minerva: Questa iniziativa si concentra sulla catalogazione di deepfake conosciuti e delle loro impronte digitali. Confrontando nuovi video con questo catalogo, è possibile identificare modifiche di falsi precedentemente scoperti, migliorando il processo di rilevamento.
- Piattaforma di rilevamento di Sensity: Sensity offre una piattaforma che impiega il deep learning per rilevare media deepfake, in modo analogo a come gli strumenti anti-malware identificano virus e malware. Avvisa gli utenti tramite email se incontrano contenuti deepfake, aggiungendo un ulteriore livello di protezione.
Come puoi proteggerti? Passi pratici
Oltre a queste soluzioni tecnologiche, gli individui possono adottare misure pratiche per difendersi dai deepfake:
- Rimanere informati: La consapevolezza dell'esistenza e della natura dei deepfake è il primo passo nella difesa. Comprendendo la tecnologia e il suo potenziale abuso, gli individui possono avvicinarsi ai contenuti digitali con più senso critico.
- Verifica delle fonti: Verifica sempre la fonte dell'informazione. Cerca prove corroboranti da fonti affidabili prima di accettare qualsiasi media come vero.
- Usare strumenti di rilevamento fidati: Utilizzare strumenti di rilevamento deepfake dove disponibili. Molte aziende e piattaforme offrono strumenti o plugin progettati per identificare contenuti manipolati.
- Segnalare contenuti sospetti: Se si incontra ciò che sembra essere un deepfake, segnalarlo alla piattaforma che ospita il contenuto. Le segnalazioni degli utenti giocano un ruolo cruciale nell'aiutare le piattaforme a identificare e agire contro i media ingannevoli.
Difendersi dai deepfake richiede un approccio multifacetico, che combina innovazione tecnologica, applicazione delle politiche e vigilanza informata. Rimanendo informati e sfruttando strumenti e strategie disponibili, individui e organizzazioni possono proteggersi meglio dai perniciosi effetti della tecnologia deepfake.
A cosa servono i deepfakes?
I deepfake, sebbene spesso discussi nel contesto del loro potenziale danno, hanno una gamma di applicazioni in vari campi. Comprendere questi usi aiuta a apprezzare la complessità e la duplice natura della tecnologia deepfake. Ecco alcune applicazioni chiave:
- Intrattenimento e media: La tecnologia deepfake è sempre più utilizzata nei film e nei videogiochi per migliorare gli effetti visivi, come invecchiare o ringiovanire gli attori, o riportare in vita artisti defunti per cameo. Questa applicazione può anche estendersi alla creazione di avatar virtuali realistici per interazioni online.
- Educazione e formazione: In contesti educativi, i deepfake possono creare esperienze di apprendimento immersive, come rievocazioni storiche o simulazioni. Ad esempio, possono riportare in vita figure storiche, offrendo agli studenti un modo dinamico per interagire con la storia.
- Arte e creatività: Artisti e creativi stanno esplorando i deepfake come nuovo mezzo di espressione. Questo include la generazione di nuove forme di arte digitale, satira, o l'esplorazione dei confini tra realtà e artificialità.
- Pubblicità e marketing: I marchi possono utilizzare la tecnologia deepfake per creare contenuti di marketing più coinvolgenti e personalizzati. Ad esempio, i deepfake consentono l'uso di ambasciatori del marchio in varie campagne senza la loro presenza fisica, eventualmente in lingue diverse per soddisfare un pubblico globale.
- Campagne politiche e sociali: Anche se controversi, i deepfake sono stati utilizzati per aumentare la consapevolezza su problemi sociali o sui potenziali pericoli della disinformazione. Deepfake attentamente realizzati possono evidenziare l'importanza del pensiero critico nell'era digitale.
- Creazione di media sintetici: I deepfake fanno parte di una categoria più ampia di media sintetici, utilizzati per generare audio, video o immagini realistici per la creazione di contenuti. Questo può snellire il processo di produzione in notizie, documentari e altre forme di media.
Sebbene i deepfake abbiano un potenziale promettente in queste applicazioni, è fondamentale navigare nel loro utilizzo in modo responsabile, garantendo che gli standard etici siano mantenuti per prevenire abusi e proteggere i diritti e la privacy degli individui.
Esempi di deepfakes
Esempi noti di deepfake includono un video di un finto Barack Obama che prende in giro Donald Trump, un finto Mark Zuckerberg che si vanta di controllare i dati di miliardi di persone, e un tavolo rotondo di celebrità deepfake come Tom Cruise, George Lucas, Robert Downey Jr., Jeff Goldblum, e Ewan McGregor.
Articoli correlati
Che cos'è l'ingegneria sociale?
Rischi dell'IA nella sicurezza informatica
FAQs
Gli individui possono citare in giudizio per la creazione di deepfake, citando diffamazione, sofferenza emotiva o violazione della proprietà intellettuale. La consulenza legale è essenziale per comprendere diritti e opzioni.