Le truffe ricorrono all’assunzione di “modelli di IA” per concludere l’affare durante le deepfake

| 24 marzo 2026
Modello Deepfake

I centri di truffa nel Sud-Est asiatico sono già diventati delle vere e proprie "fabbriche di schiavi" moderne, intrappolando le vittime e costringendone molte a diventare a loro volta truffatori. Ora hanno aggiunto un altro tipo di "lavoratore" al gruppo: i cosiddetti modelli di IA.

Questi truffatori professionisti effettuano videochiamate con le loro vittime, conquistandole con le loro lusinghe per convincerle a consegnare loro il denaro. Comeriportatoquesta settimanada WIRED, gli annunci di lavoro descrivono mansioni che prevedono la gestione di circa un centinaio di videochiamate al giorno, finalizzate a promuovere truffe sentimentali e schemi fraudolenti legati alle criptovalute nell’ambito di operazioni di truffa su scala industriale in Cambogia, Myanmar e Laos. 

Queste "fabbriche di truffe" si avvalgono già di operatori di chat per adescare le vittime tramite app di messaggistica. Molti di questi operatori sono essi stessi vittime della tratta, costretti a lavorare per lunghi turni sotto minaccia di violenza. Col tempo instaurano rapporti con le vittime, sfruttandone la solitudine o le preoccupazioni finanziarie. Mentre si impegnano a far sentire speciale una vittima, in realtà gestiscono contemporaneamente conversazioni simili con decine di persone. Alla fine, una vittima potrebbe voler fare una videochiamata, sia per incontrare il proprio fidanzato immaginario, sia per confermare che un'opportunità di investimento sia legittima (o entrambe le cose). 

Gli operatori delle chat potrebbero non essere in grado di affascinare le vittime in videochiamata, soprattuttoquando sono essi stessi vittime, costretti a turni di lavoro estenuanti e subiscono violenze fisiche.  Quindi, quando una vittima chiede una videochiamata, i capi della truffa ricorrono a uno "modello AI" specializzato con spiccate capacità interpersonali per affascinare la vittima. Nonostante il nome, si tratta di persone reali assunte per apparire nelle videochiamate. Il deepfake AI modifica il loro aspetto per farlo corrispondere a quello della persona immaginaria che la vittima spera di vedere. 

Le organizzazioni criminali pubblicano annunci di reclutamento per queste modelle, e molte sembrano disposte a candidarsi per questi lavori. Humanity Research Consultancy, un gruppo di ricerca investigativa che monitora le reti di traffico di esseri umani,ha individuatol'annuncio di una ventiquattrenne uzbeka che si fa chiamare Angel. La donna affermava di parlare quattro lingue e di avere un anno di esperienza come modella di IA. Chiedeva 7.000 dollari al mese per i suoi servizi. 

L'aumento dei complessi fraudolenti 

Ma come è possibile che esistano questi centri di truffa?Secondo l’Australian Strategic Policy Institute, il colpo di Stato militare del 2021 in Myanmar ha contribuito a innescare un vero e proprio boom delle truffe. I centri di truffa lungo il confine con la Thailandia sonopiù che raddoppiaticon l’affermarsi delle organizzazioni criminali in quella regione, così come in Myanmar, Cambogia e Laos. 

Questi centri dedicati alle truffe vengono spesso tollerati perché alimentano le casse delle milizie locali. Tuttavia, sono state adottate alcune contromisure. Le retate e le operazioni di contrasto transfrontaliere hanno portato ad arresti e al trasferimento di un gran numero di sospetti da un paese all’altro, comprese operazioni mirate contro complessi come il KK Park a Myawaddy. Anche la Cambogia e il Myanmar hanno segnalato un intensificarsi degli sforzi per contrastare le operazioni di truffa, sebbene le reti rimangano estremamente resistenti.

Questo tipo di attività diventa più facile con il progredire della tecnologia. deepfake per lo scambio di volti in tempo reale e deepfake sono ormai abbastanza avanzati da supportare i video in diretta, non solo i filmati preregistrati. Abbiamo già visto deepfakes in tempo reale deepfakes per qualsiasi scopo, daicolloqui di lavoroall'impersonificazione di dirigenti bancari per truffare milioni di persone. La novità in questo caso è la portata: il fatto che ci siano persone che gestiscono decine o addirittura centinaia di chiamate al giorno per truffe romantiche e frodi sugli investimenti in criptovalute dimostra che si tratta ormai di uno sfruttamento di massa. 

Come proteggersi 

Ecco il problema dei deepfake : gli indizi tipici che consentono di individuarli stanno scomparendo. Un tempo, un segno inequivocabile di un deepfake generato dall'IA deepfake qualcuno con un numero errato di dita o stranezze nell'attaccatura dei capelli. È possibile alzare la posta in gioco durante le chiamate in diretta chiedendo a qualcuno di girarsi di lato. Chiedete loro di toccarsi il naso e di agitare le dita davanti al viso. È più difficile perdeepfake gestire quel rumore di fondo in più. 

Ma attenzione: gli algoritmi che generano deepfakes continuamente e riescono sempre più facilmente a superare questi test. Siamo arrivati al punto in cui, secondo questodeepfake , quest’anno saremo molti di più a cadere nella loro trappola. 

Se non riesci a fidarti completamente di ciò che vedi, affidati a ciò che sai. Diffida dei contatti non richiesti, soprattutto quando qualcuno cerca di instaurare rapidamente un legame emotivo o ti propone un'opportunità di investimento. Anche se un profilo sembra ben curato o un sito web appare affidabile, prenditi il tempo necessario per approfondire un po' la questione.

Evita di condividere informazioni personali o finanziarie con persone che hai conosciuto solo online e diffida di chiunque ti spinga a prendere decisioni affrettate o ti chieda di spostare la conversazione fuori dalle piattaforme consolidate. L'FBI offre alcuni consigli utili sul proprio sito web

L'aspetto più pericoloso di questa tendenza dei modellideepfake è che permette alle truffe di superare l'ultimo ostacolo. Una persona in carne e ossa è in grado di sventare una truffa, cosa che una semplice interazione via chat non può fare. Ecco perché persone come Angel, dall'Uzbekistan, hanno un lavoro, ed ecco perché dovete stare più in guardia che mai. 


Non ci limitiamo a segnalare le truffe, ma aiutiamo a individuarle.

I rischi legati alla sicurezza informatica non dovrebbero mai andare oltre i titoli dei giornali. Se qualcosa ti sembra sospetto, verifica se si tratta di una truffa utilizzando Malwarebytes Guard. Invia uno screenshot, incolla il contenuto sospetto o condividi un link, un testo o un numero di telefono e ti diremo se si tratta di una truffa o di qualcosa di legittimo. Disponibile con Malwarebytes Premium per tutti i tuoi dispositivi e Malwarebytes per iOS Android.

Informazioni sull'autore

Danny Bradbury è giornalista specializzato in tecnologia dal 1989 e scrittore freelance dal 1994. Si occupa di un'ampia gamma di argomenti tecnologici per un pubblico che va dai consumatori agli sviluppatori di software e ai CIO. Inoltre, scrive articoli per molti dirigenti del settore tecnologico. È originario del Regno Unito, ma ora vive nel Canada occidentale.