Les escrocs ont recours à des « modèles d'IA » pour conclure la vente lors d'appels deepfake

| 24 mars 2026
Modèle Deepfake

Les centres d'escroquerie en Asie du Sud-Est sont déjà devenus de véritables fermes d'esclaves modernes, piégeant leurs victimes et forçant nombre d'entre elles à devenir des escrocs à leur service. Aujourd'hui, ils ont ajouté un nouveau type de « main-d'œuvre » à leur effectif : ce qu'on appelle les modèles d'IA.

Ces escrocs professionnels passent des appels vidéo avec leurs victimes, qu’ils séduisent pour leur soutirer de l’argent. Commele rapporte WIREDcette semaine, des offres d’emploi décrivent des postes consistant à gérer une centaine d’appels vidéo par jour, dans le cadre d’opérations d’escroquerie à grande échelle menées au Cambodge, au Myanmar et au Laos, où sont mis en avant des arnaques sentimentales et des escroqueries liées aux cryptomonnaies. 

Ces « fermes à arnaques » font déjà appel à des opérateurs de chat pour piéger leurs victimes via des applications de messagerie. Bon nombre de ces opérateurs sont eux-mêmes victimes de traite, contraints de travailler pendant de longues heures sous la menace de violences. Au fil du temps, ils nouent des relations avec les victimes, en exploitant leur solitude ou leurs soucis financiers. Alors qu’ils s’efforcent de faire croire à une victime qu’elle est unique, ils gèrent en réalité simultanément des conversations similaires avec des dizaines de personnes. Finalement, une victime peut souhaiter passer un appel vidéo, soit pour rencontrer son prétendu amoureux, soit pour s'assurer qu'une opportunité d'investissement est légitime (ou les deux). 

Les opérateurs de chat ne sont peut-être pas capables de charmer les victimes par vidéo, surtoutlorsqu’ils sont eux-mêmes des victimes, contraints de travailler pendant de longues heures et subissant des violences physiques.  Ainsi, lorsqu'une victime demande un appel vidéo, les responsables de l'arnaque font appel à un « modèle IA » spécialisé, doté de solides compétences interpersonnelles, pour séduire la victime. Malgré leur nom, ce sont de vraies personnes engagées pour apparaître lors des appels vidéo. Le deepfake d'IA deepfake ajuste leur apparence pour qu'elle corresponde à la personne fictive que la victime espère voir. 

Des réseaux frauduleux publient des annonces de recrutement pour ces mannequins virtuels, et beaucoup semblent disposées à postuler à ces emplois. Humanity Research Consultancy, un groupe de recherche d'investigation qui suit les filières de traite des êtres humains,a identifiéune annonce publiée par une Ouzbékiste de 24 ans se faisant appeler Angel. Elle affirmait parler quatre langues et avoir une année d'expérience en tant que mannequin virtuel. Elle demandait 7 000 dollars par mois pour ses services. 

La multiplication des escroqueries 

Comment ces centres de fraude peuvent-ils exister ?Selon l'Australian Strategic Policy Institute, le coup d'État militaire de 2021 au Myanmar a contribué à alimenter une explosion de la fraude. Le nombre de centres de fraude situés le long de la frontière thaïlandaise aplus que doublé, à mesure que des organisations criminelles s'installent dans cette région, ainsi qu'au Myanmar, au Cambodge et au Laos. 

Ces centres d'escroquerie sont souvent tolérés car ils alimentent les caisses des milices locales. Mais certaines mesures ont été prises pour y remédier. Des descentes de police et des opérations transfrontalières ont conduit à des arrestations et au transfert d'un grand nombre de suspects d'un pays à l'autre, notamment lors d'opérations visant des complexes tels que KK Park à Myawaddy. Le Cambodge et le Myanmar ont également annoncé un renforcement de leurs efforts pour lutter contre ces activités frauduleuses, même si ces réseaux restent extrêmement résistants.

Ce type d'activité devient plus facile à mesure que la technologie progresse. deepfake de remplacement de visage en temps réel et deepfake sont désormais suffisamment performants pour prendre en charge la vidéo en direct, et pas seulement les clips préenregistrés. Nous avons déjà vu deepfakes en temps réel deepfakes dans tous les domaines,des entretiens d'embaucheàl'usurpation d'identité de dirigeants bancaires pour escroquer des millions de personnes. Ce qui est nouveau ici, c'est l'ampleur du phénomène : le fait que des personnes traitent des dizaines, voire des centaines d'appels par jour pour des escroqueries sentimentales et des fraudes liées aux investissements dans les cryptomonnaies montre qu'il s'agit désormais d'une exploitation à grande échelle. 

Comment rester en sécurité 

Voici le problème avec deepfake : les indices habituels qui permettent de les repérer sont en train de disparaître. À une époque, un signe indéniable d’un deepfake généré par l’IA deepfake un personnage présentant un nombre de doigts incorrect ou des anomalies au niveau de la racine des cheveux. Vous pouvez mettre la barre plus haut lors d’appels en direct en demandant à votre interlocuteur de se tourner de profil. Demandez-lui de se toucher le nez et d’agiter les doigts devant son visage. Il est plus difficile pourdeepfake de gérer ces éléments parasites supplémentaires. 

Mais attention : les algorithmes qui génèrent deepfakes s'améliorer et parviennent de plus en plus facilement à passer ces tests. Nous en sommes arrivés à un point où, selon cedeepfake , nous serons beaucoup plus nombreux à nous faire piéger par eux cette année. 

Si vous ne pouvez pas vous fier entièrement à ce que vous voyez, fiez-vous plutôt à ce que vous savez. Méfiez-vous des contacts non sollicités, surtout lorsqu’une personne établit rapidement un lien émotionnel ou vous propose une opportunité d’investissement. Même si un profil semble bien établi ou qu’un site web paraît légitime, prenez le temps de creuser un peu plus.

Évitez de communiquer des informations personnelles ou financières à une personne que vous n'avez rencontrée qu'en ligne, et méfiez-vous de toute personne qui vous pousse à prendre des décisions hâtives ou qui vous demande de poursuivre la conversation en dehors des plateformes habituelles. Le FBI donne de précieux conseils sur son site web

Le plus dangereux dans cette tendance aux modèlesdeepfake , c'est qu'elle permet aux escroqueries de franchir une nouvelle étape. Un être humain en chair et en os peut mettre fin à une escroquerie, ce qu'une simple conversation par chat ne permet pas. C'est pourquoi des personnes comme Angel, originaire d'Ouzbékistan, ont un emploi, et pourquoi vous devez être plus vigilant que jamais. 


Nous ne nous contentons pas de signaler les escroqueries, nous contribuons à les détecter.

Les risques liés à la cybersécurité ne devraient jamais dépasser le stade des gros titres. Si quelque chose vous semble louche, vérifiez s'il s'agit d'une arnaque à l'aide de Malwarebytes Guard. Envoyez une capture d'écran, collez le contenu suspect ou partagez un lien, un texte ou un numéro de téléphone, et nous vous dirons s'il s'agit d'une arnaque ou d'un site légitime. Disponible avec Malwarebytes Premium pour tous vos appareils, et dans Malwarebytes pour iOS Android.

À propos de l'auteur

Danny Bradbury est journaliste spécialisé dans les technologies depuis 1989 et rédacteur indépendant depuis 1994. Il couvre un large éventail de questions technologiques pour des publics allant des consommateurs aux développeurs de logiciels et aux directeurs informatiques. Il rédige également des articles pour de nombreux cadres supérieurs du secteur technologique. Originaire du Royaume-Uni, il vit aujourd'hui dans l'ouest du Canada.