Pendant de nombreuses décennies, les cinéastes ont cherché à modifier ou à améliorer la biologie humaine à l'aide de maquillages, de prothèses et de doublures pour donner une impression d'authenticité à leurs scènes. Mais jusqu'à l'avènement de la technologie moderne des effets visuels (VFX), les résultats étaient mitigés. Depuis des films comme The Irishman et Captain Marvel jusqu'à Avengers : Endgame, les effets visuels permettent aux acteurs de surmonter des impossibilités physiques. Parfois, les effets visuels hollywoodiens permettent aux réalisateurs de fusionner le visage des acteurs avec le corps d'autres interprètes pour des rôles qu'ils ne sont pas prêts ou capables d'interpréter.
Mais comme vous pouvez l'imaginer, la technologie VFX hollywoodienne moderne est un travail coûteux, délicat et minutieux. Il est évident que tout le monde ne dispose pas d'un budget de quelques centaines de millions de dollars pour engager un studio d'effets visuels. C'est là que la technologie deepfake entre en jeu.
Qu'est-ce qu'un deepfake ? Une définition
Un "deepfake" désigne un média recréant l'apparence et/ou la voix d'une personne par un type d'intelligence artificielle appelé "deep learning" (d'où le nom "deepfake"). Un utilisateur de Reddit qui partageait des deepfakes sur le site a inventé le terme en 2017.
Les "deepfakes" sont généralement des images, des vidéos ou des enregistrements audio falsifiés. Vous avez peut-être vu des vidéos populaires de célébrités ou de politiciens disant quelque chose qu'ils ne diraient probablement pas dans la vie réelle. Ce sont des exemples courants de deepfakes. L'émergence des deepfakes suscite des inquiétudes quant à la possibilité d'un "dividende du menteur", où la désinformation prolifère, sapant la confiance et déformant la réalité.
Comment fonctionnent les "deepfakes" ?
La technologie Deepfake exploite une intelligence artificielle sophistiquée par le biais de réseaux adversaires génératifs (GAN), comprenant deux algorithmes essentiels : le générateur et le discriminateur. Le générateur lance le processus en créant le faux contenu initial sur la base d'un résultat souhaité, à l'aide d'un ensemble de données d'entraînement. Pendant ce temps, le discriminateur évalue l'authenticité de ce contenu, en mettant en évidence les points à améliorer. Ce processus itératif permet au générateur d'améliorer sa capacité à produire un contenu de plus en plus réaliste, tandis que le discriminateur devient plus apte à identifier les divergences à corriger.
Les GAN jouent un rôle essentiel dans la création de deepfake en analysant les motifs des images authentiques pour les reproduire dans le contenu fabriqué. Pour les photographies, les systèmes GAN examinent plusieurs angles des images de la cible afin d'en saisir tous les détails. Pour les vidéos, ils analysent non seulement les angles, mais aussi le comportement, les mouvements et les modèles de discours. Cette analyse multidimensionnelle subit de nombreuses itérations dans le discriminateur afin d'affiner le réalisme du produit final.
Les vidéos "deepfake" sont issues de deux méthodes principales : la manipulation d'une vidéo originale pour modifier ce que la cible dit ou fait (source video deepfakes) ou l'échange du visage de la cible sur le corps d'une autre personne (face swaps). Les deepfakes vidéo source impliquent un autoencodeur basé sur un réseau neuronal qui dissèque la vidéo pour comprendre les expressions faciales et le langage corporel de la cible et les superposer à la séquence d'origine. Pour l'audio, un processus similaire clone la voix d'une personne, ce qui permet de reproduire n'importe quel discours.
Les principales techniques de création de deepfake sont les suivantes
- Source vidéo deepfakes: Utilise un autoencodeur avec un encodeur pour analyser les attributs et un décodeur pour appliquer ces attributs à la vidéo cible.
- Audio deepfakes: Emploie des GAN pour cloner des modèles vocaux, permettant la création de répliques vocales réalistes.
- Synchronisation labiale: Fait correspondre les enregistrements vocaux à la vidéo, renforçant l'illusion que le sujet prononce les mots enregistrés, avec l'aide de réseaux neuronaux récurrents pour plus de réalisme.
La création de deepfakes est facilitée par des technologies avancées telles que les réseaux neuronaux convolutionnels (CNN) pour la reconnaissance faciale, les autoencodeurs pour le mappage d'attributs, le traitement du langage naturel (NLP) pour la génération de sons synthétiques, et la puissance de calcul fournie par les systèmes informatiques à haute performance. Des outils tels que Deep Art Effects, Deepswap et FaceApp illustrent l'accessibilité de la génération de deepfakes et laissent entrevoir un avenir où la création de deepfakes convaincants sera à la portée du plus grand nombre.
Les "deepfakes" sont-ils légaux ?
Les deepfakes ne sont pas intrinsèquement illégaux ; leur légalité dépend largement de leur contenu et de leur intention. Cette technologie innovante peut s'aventurer en territoire illégal si elle enfreint les lois existantes sur la pornographie enfantine, la diffamation, l'incitation à la haine ou d'autres activités criminelles.
À ce jour, il existe peu de lois visant spécifiquement les deepfakes et elles varient considérablement d'un pays à l'autre. Toutefois, la prolifération de la technologie des deepfakes suscite des inquiétudes quant à la diffusion de fausses affirmations et à leur impact sur la confiance et le discours publics. Il existe déjà des exceptions notables aux États-Unis, où certains États ont pris des mesures pour limiter les effets néfastes de la technologie deepfake :
- Le Texas : Cet État a adopté une législation qui interdit la création et la distribution de "deepfakes" dans l'intention d'interférer avec les élections. Cette mesure vise à préserver l'intégrité du processus électoral en empêchant la diffusion d'informations trompeuses ou fausses sur les candidats au moyen de fausses vidéos ou d'enregistrements audio hyperréalistes. En outre, le Texas a adopté une loi visant spécifiquement les deepfakes sexuellement explicites diffusés sans le consentement de la personne concernée, afin de protéger les individus de la détresse ou de l'embarras causés par ce type de contenu. Les deux infractions sont considérées comme des délits de classe A, avec des peines potentielles pouvant aller jusqu'à un an de prison et des amendes allant jusqu'à 4 000 dollars.
- Virginie : Reconnaissant le préjudice personnel et sociétal causé par la pornographie "deepfake", la Virginie a spécifiquement interdit la diffusion de ce type de contenu. Cette loi vise les deepfakes qui exploitent sexuellement des personnes sans leur consentement, offrant ainsi aux victimes un moyen légal de demander justice. La diffusion de pornographie de vengeance, y compris la pornographie de deepfake, est considérée comme un délit de classe 1, passible d'une peine d'emprisonnement pouvant aller jusqu'à 12 mois et d'une amende pouvant aller jusqu'à 2 500 dollars.
- Californie : S'intéressant aux ramifications politiques et personnelles des deepfakes, la Californie a adopté des lois interdisant l'utilisation de deepfakes visant à tromper les électeurs dans les 60 jours précédant une élection. En outre, l'État a rendu illégale la création et la distribution de deepfakes pornographiques non consensuels, ce qui témoigne d'une inquiétude croissante quant à l'utilisation de cette technologie pour porter atteinte à la vie privée et à la dignité des individus.
Cette mosaïque de réglementations met en évidence un problème plus large : de nombreuses personnes ne connaissent pas la technologie des deepfakes, ses applications potentielles et les risques qu'elle pose. Ce manque de sensibilisation contribue à un environnement juridique dans lequel les victimes de deepfakes, en dehors des scénarios spécifiques couverts par les lois des États, se retrouvent souvent sans recours juridique clair. La nature évolutive de la technologie des deepfakes et ses implications nécessitent un public mieux informé, ainsi que des cadres juridiques complets pour protéger les individus de son utilisation abusive potentielle.
En quoi les "deepfakes" sont-ils dangereux ?
La technologie Deepfake, bien qu'innovante, présente des risques considérables. Il ne s'agit pas seulement de créer de fausses images ou de fausses vidéos ; les implications s'étendent à des domaines sérieux tels que :
- La sécurité personnelle, avec des personnes menacées de chantage.
- L'intégrité des processus démocratiques, par la fabrication de contenus politiques trompeurs.
- Les marchés financiers, susceptibles d'être manipulés par des rapports fabriqués de toutes pièces.
- Identity vol de données personnelles risquant d'être utilisées à mauvais escient.
L'évolution du paysage nécessite une réponse solide, combinant vigilance, solutions technologiques et cadres juridiques pour se prémunir contre ces menaces émergentes.
Comment détecter les "deepfakes" ?
Pour détecter les contenus "deepfake", il faut prêter attention à des indicateurs visuels et textuels spécifiques. Voici quelques signes clés à surveiller :
Indicateurs visuels :
- Positionnement inhabituel du visage ou expressions maladroites.
- Mouvements non naturels du visage ou du corps.
- Couleurs incohérentes sur l'ensemble de la vidéo.
- Apparences bizarres lors d'un zoom ou d'un agrandissement.
- Son mal adapté ou incohérent.
- Absence de clignement naturel des yeux chez les personnes.
Indicateurs textuels :
- Des fautes d'orthographe et des phrases grammaticalement incorrectes.
- Le déroulement des phrases ne semble pas naturel.
- Adresses électroniques suspectes.
- Formulation qui ne correspond pas au style attendu de l'expéditeur.
- Messages hors contexte ou non pertinents.
En outre, il faut tenir compte des anomalies comportementales et contextuelles :
- Incohérences comportementales: Prêtez attention au comportement et aux manières du sujet. Les "deepfakes" peuvent ne pas reproduire avec précision des traits de personnalité subtils, des mouvements habituels ou des réactions émotionnelles, ce qui donne l'impression que le sujet n'est pas tout à fait à sa place.
- Anomalies contextuelles: Analysez le contexte dans lequel la vidéo ou l'audio apparaît. Des divergences dans l'arrière-plan, des interactions inattendues avec l'environnement ou des anomalies dans l'intrigue peuvent indiquer une manipulation.
Les progrès de l'IA améliorent la détection de ces signes, mais il est essentiel de rester informé de ces indicateurs pour identifier les "deepfakes".
Comment se défendre contre les "deepfakes" ?
Une stratégie clé pour se défendre contre les "deepfakes" consiste à utiliser des technologies avancées pour identifier et bloquer ces médias falsifiés.
Des agences gouvernementales comme la Defense Advanced Research Projects Agency (DARPA) du ministère américain de la défense sont à l'avant-garde, développant des solutions de pointe pour distinguer les contenus réels des contenus manipulés. De même, les géants des médias sociaux et les entreprises technologiques emploient des méthodes innovantes pour garantir l'authenticité des médias partagés sur leurs plateformes.
Par exemple, certaines plateformes utilisent la technologie blockchain pour vérifier l'origine des vidéos et des images, établissant ainsi des sources fiables et empêchant efficacement la diffusion de faux contenus.
Mise en œuvre de politiques en matière de médias sociaux
Conscientes du préjudice potentiel causé par les deepfakes malveillants, les plateformes de médias sociaux telles que Facebook et Twitter ont adopté une position ferme en les interdisant. Ces politiques s'inscrivent dans le cadre d'un effort plus large visant à protéger les utilisateurs des effets négatifs des médias trompeurs, soulignant le rôle de la gouvernance des plateformes dans le maintien de la confiance numérique.
Adoption d'un logiciel de détection des contrefaçons (deepfake)
La lutte contre les "deepfakes" est également soutenue par l'innovation du secteur privé. Un certain nombre d'entreprises proposent des logiciels sophistiqués de détection des "deepfakes", qui constituent des outils essentiels pour identifier les médias manipulés :
- L'initiative d'Adobe en matière d'authenticité du contenu: Adobe a mis en place un système permettant aux créateurs d'apposer une signature numérique sur leurs vidéos et photos. Cette signature comprend des informations détaillées sur la création du média, offrant ainsi une méthode transparente de vérification de l'authenticité.
- L'outil de détection de Microsoft: Microsoft a mis au point un outil basé sur l'intelligence artificielle qui analyse les vidéos et les photos afin d'en évaluer l'authenticité. Il fournit un score de confiance indiquant la probabilité de manipulation, aidant ainsi les utilisateurs à discerner la fiabilité des médias qu'ils rencontrent.
- Opération Minerva: Cette initiative se concentre sur le catalogage des "deepfakes" connus et de leurs empreintes numériques. En comparant les nouvelles vidéos à ce catalogue, il est possible d'identifier des modifications de faux déjà découverts, ce qui améliore le processus de détection.
- La plateforme de détection de Sensity: Sensity propose une plateforme qui utilise l'apprentissage profond pour détecter les médias falsifiés, de la même manière que les outils anti-malware identifient les virus et les malwares. Elle alerte les utilisateurs par courrier électronique s'ils rencontrent des contenus falsifiés, ce qui ajoute une couche supplémentaire de protection.
Comment se protéger ? Mesures pratiques
Au-delà de ces solutions technologiques, les particuliers peuvent prendre des mesures pratiques pour se défendre contre les "deepfakes" :
- Restez informé: La prise de conscience de l'existence et de la nature des "deepfakes" est la première étape de la défense. En comprenant la technologie et son utilisation abusive potentielle, les individus peuvent aborder le contenu numérique de manière plus critique.
- Vérifier les sources: Vérifiez toujours la source de l'information. Recherchez des preuves corroborantes auprès de sources réputées avant d'accepter un média comme vrai.
- Utilisez des outils de détection fiables: Utilisez des outils de détection de deepfake lorsqu'ils sont disponibles. De nombreuses entreprises et plateformes proposent des outils ou des plugins conçus pour identifier les contenus manipulés.
- Signalez les contenus suspects: Si vous rencontrez ce qui semble être un deepfake, signalez-le à la plateforme qui héberge le contenu. Les rapports des utilisateurs jouent un rôle crucial en aidant les plateformes à identifier les médias trompeurs et à prendre des mesures à leur encontre.
La défense contre les "deepfakes" nécessite une approche à multiples facettes, combinant l'innovation technologique, l'application des politiques et une vigilance éclairée. En restant informés et en exploitant les outils et les stratégies disponibles, les individus et les organisations peuvent mieux se protéger des effets pernicieux de la technologie des "deepfakes".
À quoi servent les deepfakes ?
Les "deepfakes", bien que souvent discutés dans le contexte de leur potentiel de nuisance, ont une série d'applications dans divers domaines. Comprendre ces utilisations permet d'apprécier la complexité et la double nature de la technologie des deepfakes. Voici quelques applications clés :
- Divertissement et médias: La technologie Deepfake est de plus en plus utilisée dans les films et les jeux vidéo pour améliorer les effets visuels, par exemple en vieillissant ou en désâgeant les acteurs, ou en ramenant à la vie des artistes décédés pour qu'ils fassent une apparition en tant que caméos. Cette application peut également s'étendre à la création d'avatars virtuels réalistes pour les interactions en ligne.
- Éducation et formation: Dans les contextes éducatifs, les deepfakes peuvent créer des expériences d'apprentissage immersives, telles que des reconstitutions historiques ou des simulations. Ils peuvent par exemple donner vie à des personnages historiques, offrant ainsi aux étudiants un moyen dynamique de s'intéresser à l'histoire.
- Art et créativité: Les artistes et les créateurs explorent les deepfakes comme un nouveau moyen d'expression. Ils créent ainsi de nouvelles formes d'art numérique, de satire ou explorent les frontières entre la réalité et l'artificialité.
- Publicité et marketing: Les marques peuvent utiliser la technologie des deepfakes pour créer un contenu marketing plus attrayant et personnalisé. Par exemple, les deepfakes permettent d'utiliser des ambassadeurs de marque dans diverses campagnes sans leur présence physique, potentiellement dans différentes langues pour répondre aux besoins d'un public mondial.
- Campagnes politiques et sociales: Bien que controversés, les deepfakes ont été utilisés pour sensibiliser le public à des questions sociales ou aux dangers potentiels de la désinformation. Des deepfakes soigneusement élaborés peuvent souligner l'importance de l'esprit critique à l'ère numérique.
- Création de médias synthétiques: Les "deepfakes" font partie d'une catégorie plus large de médias synthétiques, utilisés pour générer des sons, des vidéos ou des images réalistes pour la création de contenu. Cela permet de rationaliser le processus de production des actualités, des documentaires et d'autres formes de médias.
Si les "deepfakes" présentent un potentiel prometteur dans ces applications, il est essentiel de les utiliser de manière responsable, en veillant à respecter des normes éthiques afin d'éviter les abus et de protéger les droits et la vie privée des individus.
Exemples de deepfakes
Parmi les exemples bien connus de deepfakes, citons une vidéo d'un faux Barack Obama se moquant de Donald Trump, un faux Mark Zuckerberg se vantant de contrôler les données de milliards de personnes, et une table ronde de célébrités deepfakes telles que Tom Cruise, George Lucas, Robert Downey Jr, Jeff Goldblum et Ewan McGregor.
Articles connexes
Qu'est-ce que l'ingénierie sociale ?
Les risques de l'IA dans le cyberespace Security
FAQs
Les particuliers peuvent intenter une action en justice pour création de deepfake, en invoquant la diffamation, la détresse émotionnelle ou la violation de la propriété intellectuelle. Une consultation juridique est essentielle pour comprendre les droits et les options.