Qu'est-ce qu'un deepfake ?

Comprendre les deepfakes : découvrez le processus de création, reconnaissez les risques et découvrez comment vous en protéger, assurant ainsi la sécurité de votre identité et de vos informations numériques.

Dark Web Scanner

Pendant des décennies, les cinéastes ont cherché à modifier ou améliorer la biologie humaine grâce au maquillage, aux prothèses et aux doublures pour donner plus d'authenticité à leurs scènes. Mais jusqu'à l'avènement des technologies modernes d'effets visuels (VFX), les résultats étaient inégaux. Des films comme The Irishman, Captain Marvel jusqu'à Avengers: Endgame, les VFX permettent aux acteurs de surmonter des impossibilités physiques. Parfois, les VFX d'Hollywood permettent aux cinéastes de fusionner le visage d'acteurs avec le corps d'autres interprètes pour des rôles qu'ils ne sont pas prêts à jouer ou incapables de réaliser.  

Mais comme vous pouvez l'imaginer, la technologie VFX moderne d'Hollywood est coûteuse, délicate et nécessite un travail détaillé. Clairement, tout le monde n'a pas un budget de plusieurs centaines de millions de dollars pour engager un studio de VFX. C'est là que la technologie deepfake entre en jeu.

Qu'est-ce qu'un deepfake ? Une définition

Un « deepfake » désigne un média recréé de l'apparence et/ou de la voix d'une personne par un type d'intelligence artificielle appelé apprentissage profond (d'où le nom, deepfake). Un utilisateur de Reddit qui a partagé des deepfakes sur le site a inventé le terme en 2017.

Les deepfakes sont généralement des images, vidéos ou enregistrements audio falsifiés. Vous avez peut-être vu des vidéos populaires de célébrités ou de politiciens disant quelque chose qu'ils ne diraient probablement pas dans la vie réelle. Ce sont des exemples communs de deepfakes. L'émergence des vidéos deepfake soulève des préoccupations concernant un éventuel « dividende du menteur », où la désinformation se propage, sapant la confiance et déformant la réalité.

Comment fonctionnent les deepfakes ?

La technologie deepfake exploite une intelligence artificielle sophistiquée par le biais de réseaux antagonistes génératifs (GANs), comprenant deux algorithmes cruciaux : le générateur et le discriminateur. Le générateur initie le processus en créant le contenu faux initial basé sur un résultat souhaité, à l'aide d'un ensemble de données d'entraînement. Pendant ce temps, le discriminateur évalue l'authenticité de ce contenu, identifiant les zones d'amélioration. Ce processus itératif permet au générateur d'améliorer sa capacité à produire un contenu de plus en plus réaliste, tandis que le discriminateur devient meilleur pour identifier les écarts à corriger.

Les GANs jouent un rôle pivot dans la création de deepfakes en analysant les modèles des images authentiques pour reproduire ces modèles dans le contenu fabriqué. Pour les photographies, les systèmes GAN examinent plusieurs angles des images de la cible pour capturer des détails complets. Pour les vidéos, ils analysent non seulement les angles mais aussi le comportement, le mouvement et les schémas de parole. Cette analyse multifacette subit de nombreuses itérations via le discriminateur pour affiner le réalisme du produit final.

Les vidéos deepfake sont créées principalement par deux méthodes : manipuler une vidéo originale pour changer ce que dit ou fait la cible (deepfakes de vidéos sources) ou échanger le visage de la cible avec celui d'une autre personne (échanges de visages). Les deepfakes de vidéos sources utilisent un autoencodeur basé sur un réseau neuronal qui analyse la vidéo pour comprendre et puis superposer les expressions faciales et le langage corporel de la cible sur les images originales. Pour l'audio, un processus similaire clone la voix d'une personne, permettant de reproduire n'importe quel discours souhaité.

Les techniques clés dans la création de deepfakes comprennent :

  • Deepfakes de vidéos sources : Utilise un autoencodeur avec un encodeur pour analyser les attributs et un décodeur pour appliquer ces attributs sur la vidéo cible.
  • Deepfakes audio : Utilise des GANs pour cloner des motifs vocaux, permettant de créer des répliques vocales réalistes.
  • Synchronisation labiale : Associe les enregistrements vocaux à la vidéo, améliorant l'illusion que le sujet prononce les mots enregistrés, soutenue par des réseaux neuronaux récurrents pour plus de réalisme.

La création de deepfakes est facilitée par des technologies avancées telles que les réseaux neuronaux convolutifs (CNN) pour la reconnaissance faciale, les autoencodeurs pour le mapping des attributs, le traitement du langage naturel (NLP) pour générer de l'audio synthétique, et la puissance de calcul fournie par des systèmes informatiques haute performance. Des outils comme Deep Art Effects, Deepswap et FaceApp illustrent l'accessibilité de la génération de deepfakes, suggérant un avenir où la création de deepfakes convaincants est à la portée de beaucoup.

Les deepfakes sont-ils légaux ?

À leur base, les deepfakes ne sont pas intrinsèquement illégaux ; leur légalité dépend en grande partie de leur contenu et de leur intention. Cette technologie innovante peut entrer dans le domaine illégal si elle enfreint les lois existantes sur la pornographie enfantine, la diffamation, les discours de haine ou d'autres activités criminelles.

À ce jour, peu de lois ciblent spécifiquement les deepfakes et elles varient considérablement d'un pays à l'autre. Cependant, la prolifération de la technologie deepfake soulève des préoccupations quant à la propagation de fausses allégations et à leur impact sur la confiance et le discours publics. Il existe déjà des exceptions notables aux États-Unis, où certains États ont pris des mesures pour freiner les effets néfastes de la technologie deepfake :

  • Texas : Cet État a adopté une législation interdisant la création et la distribution de deepfakes visant à interférer avec les élections. Ce mouvement vise à sauvegarder l'intégrité du processus électoral en empêchant la diffusion d'informations trompeuses ou fausses sur les candidats à travers des vidéos ou enregistrements audio hyperréalistes. De plus, le Texas a adopté une loi ciblant spécifiquement les deepfakes à teneur explicitement sexuelle distribués sans le consentement de la personne concernée, visant à protéger les individus de la gêne ou de la détresse causée par de tels contenus. Les deux infractions sont traitées comme des délits de classe A, avec des peines potentielles allant jusqu'à un an de prison et une amende allant jusqu'à 4 000 $ .
  • Virginie : Reconnaissant le préjudice personnel et sociétal causé par la pornographie deepfake, la Virginie a spécifiquement interdit la diffusion de tels contenus. Cette loi cible les deepfakes qui exploitent sexuellement des individus sans leur consentement, offrant aux victimes une voie légale pour obtenir justice. La diffusion de pornographie vengeresse, y compris la pornographie deepfake, est classée comme délit de classe 1, puni d'une peine pouvant aller jusqu'à 12 mois de prison et d'une amende allant jusqu'à 2 500 $ .
  • Californie : Avec un accent sur les implications politiques et personnelles des deepfakes, la Californie a adopté des lois contre l'utilisation des deepfakes visant à tromper les électeurs dans les 60 jours précédant une élection. De plus, l'État a rendu illégal la création et la distribution de pornographie deepfake non consensuelle, reflétant une préoccupation croissante quant à l'utilisation de cette technologie pour nuire à la vie privée et à la dignité des individus.

La mosaïque de réglementations met en lumière un défi plus large : de nombreuses personnes restent ignorantes de la technologie deepfake, de ses applications potentielles et des risques qu'elle présente. Ce manque de sensibilisation contribue à un environnement juridique où les victimes de deepfakes, en dehors des scénarios spécifiques couverts par les lois des États, se retrouvent souvent sans recours juridique clair. La nature évolutive de la technologie deepfake et ses implications nécessitent un public mieux informé, ainsi que des cadres juridiques complets pour protéger les individus de ses abus potentiels.

En quoi les deepfakes sont-ils dangereux ?

La technologie deepfake, bien qu'innovante, introduit des risques substantiels. Il ne s'agit pas seulement de créer de fausses images ou vidéos ; les implications s'étendent dans des domaines sérieux tels que :

  • La sécurité personnelle, les individus faisant face à des menaces de chantage.
  • L'intégrité des processus démocratiques, à travers la fabrication de contenus politiques trompeurs.
  • Les marchés financiers, susceptibles d'être manipulés par des rapports fabriqués.
  • Usurpation d'identité avec le risque de mauvaise utilisation des données personnelles.

L'évolution du paysage nécessite une réponse robuste, combinant vigilance, solutions technologiques et cadres juridiques pour se protéger contre ces menaces émergentes.

Comment détecter les deepfakes ?

La détection de contenus deepfake nécessite de prêter attention à des indices visuels et textuels spécifiques. Voici quelques signes clés à surveiller :

Indicateurs visuels :

  • Positionnement du visage inhabituel ou expressions maladroites.
  • Mouvements non naturels du visage ou du corps.
  • Coloration incohérente dans toute la vidéo.
  • Apparences étranges lors de zoom ou de grossissement.
  • Audio décalé ou incohérent.
  • Absence de clignement naturel chez les personnes.

Indicateurs textuels :

  • Fautes d'orthographe et phrases grammaticalement incorrectes.
  • Flux de phrases qui semble artificiel.
  • Adresses e-mail qui paraissent suspectes.
  • Formulations qui ne correspondent pas au style attendu de l'expéditeur.
  • Messages qui n'ont pas de contexte ou sont hors sujet.

De plus, considérez les anomalies comportementales et contextuelles :

  • Incohérences comportementales : Faites attention au comportement et aux manières du sujet. Les deepfakes peuvent ne pas reproduire avec précision les traits de personnalité subtils, les mouvements habituels ou les réponses émotionnelles, ce qui rend le sujet légèrement décalé.
  • Anomalies contextuelles : Analysez le contexte dans lequel la vidéo ou l'audio apparaît. Les incohérences dans l'arrière-plan, les interactions inattendues avec l'environnement, ou les anomalies dans le scénario peuvent indiquer une manipulation.

Les avancées de l'IA améliorent la détection de ces signes, mais rester informé de ces indicateurs est essentiel pour identifier les deepfakes.

Comment se défendre contre les deepfakes ?

Une stratégie clé pour se défendre contre les deepfakes consiste à utiliser des technologies avancées pour identifier et bloquer ces médias falsifiés.

Les agences gouvernementales comme l'Agence pour les projets de recherche avancée de défense du Département de la Défense des États-Unis (DARPA) sont à l'avant-garde, développant des solutions de pointe pour distinguer le réel du manipulé. De même, les géants des réseaux sociaux et les entreprises technologiques emploient des méthodes innovantes pour assurer l'authenticité des médias partagés sur leurs plateformes.

Par exemple, certaines plateformes utilisent la technologie blockchain pour vérifier l'origine des vidéos et des images, établissant des sources fiables et empêchant efficacement la propagation de faux contenus.

Mise en œuvre de politiques sur les réseaux sociaux

Reconnaissant le potentiel de nuisance des deepfakes malveillants, des plateformes de médias sociaux comme Facebook et Twitter ont pris une position ferme en les interdisant. Ces politiques font partie d'un effort plus large pour protéger les utilisateurs des impacts négatifs des médias trompeurs, soulignant le rôle de la gouvernance des plateformes dans le maintien de la confiance numérique.

Adoption de logiciels de détection de deepfakes

La lutte contre les deepfakes est également soutenue par l'innovation du secteur privé. Un certain nombre d'entreprises offrent des logiciels de détection de deepfakes sophistiqués, fournissant des outils essentiels pour identifier les médias manipulés :

  • Initiative d'authenticité des contenus d'Adobe : Adobe a introduit un système permettant aux créateurs d'attacher une signature numérique à leurs vidéos et photos. Cette signature comprend des informations détaillées sur la création des médias, offrant une méthode transparente pour vérifier l'authenticité.
  • Outil de détection de Microsoft : Microsoft a développé un outil alimenté par l'IA qui analyse les vidéos et photos pour évaluer leur authenticité. Il fournit un score de confiance indiquant la probabilité de manipulation, aidant les utilisateurs à discerner la fiabilité des médias qu'ils rencontrent.
  • Opération Minerva : Cette initiative se concentre sur le catalogage des deepfakes connus et leurs empreintes numériques. En comparant de nouvelles vidéos à ce catalogue, il est possible d'identifier les modifications de faux précédemment découverts, améliorant ainsi le processus de détection.
  • Plateforme de détection de Sensity : Sensity offre une plateforme qui utilise l'apprentissage profond pour détecter les médias deepfake, de manière analogue à la façon dont les outils anti-malware identifient les virus et les malwares. Elle alerte les utilisateurs par e-mail s'ils rencontrent des contenus deepfake, ajoutant une couche de protection supplémentaire.

Comment se protéger ? Mesures pratiques

Au-delà de ces solutions technologiques, les individus peuvent prendre des mesures pratiques pour se défendre contre les deepfakes :

  • Restez informé : La sensibilisation à l'existence et à la nature des deepfakes est la première étape de la défense. En comprenant la technologie et son potentiel abus, les individus peuvent aborder le contenu numérique de manière plus critique.
  • Vérifier les sources : Toujours vérifier la source de l'information. Recherchez des preuves corroborantes provenant de sources réputées avant d'accepter tout média comme vrai.
  • Utilisez des outils de détection fiables : Employez des outils de détection de deepfakes là où ils sont disponibles. De nombreuses entreprises et plateformes fournissent des outils ou des plugins conçus pour identifier le contenu manipulé.
  • Signalez le contenu suspect : Si vous tombez sur ce qui semble être un deepfake, signalez-le à la plateforme hébergeant le contenu. Les signalements des utilisateurs jouent un rôle crucial pour aider les plateformes à identifier et à prendre des mesures contre les médias trompeurs.

Se défendre contre les deepfakes nécessite une approche multi-facettes, combinant l'innovation technologique, l'application des politiques et la vigilance informée. En se tenant informés et en tirant parti des outils et stratégies disponibles, les individus et les organisations peuvent mieux se protéger des effets pernicieux de la technologie deepfake.

À quoi servent les deepfakes ?

Les deepfakes, bien souvent discutés dans le contexte de leur potentiel nuisible, ont une gamme d'applications dans divers domaines. Comprendre ces utilisations aide à apprécier la complexité et la double nature de la technologie deepfake. Voici quelques applications clés :

  • Divertissement et médias : La technologie deepfake est de plus en plus utilisée dans les films et les jeux vidéo pour améliorer les effets visuels, comme faire vieillir ou rajeunir les acteurs, ou ramener à la vie des interprètes décédés pour des apparitions en caméo. Cette application peut également s'étendre à la création d'avatars virtuels réalistes pour des interactions en ligne.
  • Éducation et formation : Dans les contextes éducatifs, les deepfakes peuvent créer des expériences d'apprentissage immersives, telles que des reconstitutions historiques ou des simulations. Par exemple, ils peuvent rendre des personnages historiques vivants, offrant aux étudiants un moyen dynamique d'interagir avec l'histoire.
  • Art et créativité : Les artistes et créatifs explorent les deepfakes comme un nouveau moyen d'expression. Cela inclut la génération de nouvelles formes d'art numérique, la satire ou l'exploration des frontières entre réalité et artificialité.
  • Publicité et marketing : Les marques peuvent utiliser la technologie deepfake pour créer un contenu marketing plus engagé et personnalisé. Par exemple, les deepfakes permettent d'utiliser des ambassadeurs de marque dans différentes campagnes sans leur présence physique, potentiellement dans différentes langues pour s'adresser à un public mondial.
  • Campagnes politiques et sociales : Bien que controversés, les deepfakes ont été utilisés pour sensibiliser aux enjeux sociaux ou aux dangers potentiels de la désinformation. Des deepfakes soigneusement conçus peuvent souligner l'importance de la pensée critique à l'ère numérique.
  • Création de médias synthétiques : Les deepfakes font partie d'une catégorie plus large de médias synthétiques, utilisés pour générer des contenus audio, vidéo ou image réalistes. Cela peut rationaliser le processus de production dans les actualités, les documentaires et d'autres formes médiatiques.

Bien que les deepfakes présentent un potentiel prometteur dans ces applications, il est crucial de naviguer dans leur utilisation de manière responsable, en veillant à ce que les normes éthiques soient respectées pour éviter les abus et protéger les droits et la vie privée des individus.

Exemples de deepfakes

Des exemples bien connus de deepfakes incluent une vidéo d'un faux Barack Obama se moquant de Donald Trump, un faux Mark Zuckerberg se vantant de contrôler les données de milliards de personnes, et une table ronde de célébrités deepfakées telles que Tom Cruise, George Lucas, Robert Downey Jr., Jeff Goldblum et Ewan McGregor.

Qu'est-ce que l'ingénierie sociale ?

Qu'est-ce que le catfishing ?

Risques de l'IA en cybersécurité

Qu'est-ce que le phishing ?

FAQ

Les individus peuvent intenter un procès pour création de deepfake, invoquant la diffamation, la détresse émotionnelle ou la violation de la propriété intellectuelle. La consultation juridique est cruciale pour comprendre ses droits et options.