Oplichters maken gebruik van „AI-modellen“ om de deal te sluiten tijdens deepfake

| 24 maart 2026
Deepfake -model

Oplichtingscentra in Zuidoost-Azië zijn inmiddels uitgegroeid tot moderne slavenkampen, waar slachtoffers worden opgesloten en velen van hen worden gedwongen om voor hen oplichting te plegen. Nu hebben ze daar nog een ander soort ‘werknemer’ aan toegevoegd: zogenaamde AI-modellen.

Deze professionele oplichters voeren videogesprekken met hun slachtoffers en weten hen op charmante wijze over te halen hun geld af te staan. Zoals deze weekin WIRED werd gemeld, wordt in vacatureadvertenties melding gemaakt van functies waarbij men dagelijks zo’n honderd live videogesprekken afhandelt, ter bevordering van romantische oplichting en crypto-zwendel in grootschalige oplichtingsoperaties in Cambodja, Myanmar en Laos. 

Deze oplichtingsbedrijven maken al gebruik van chatoperators om slachtoffers via berichtenapps in de val te lokken. Veel van deze operators zijn zelf slachtoffers van mensenhandel en worden onder dreiging van geweld gedwongen om lange diensten te draaien. Ze bouwen in de loop van de tijd een band op met slachtoffers en maken daarbij misbruik van hun eenzaamheid of financiële zorgen. Terwijl ze er alles aan doen om een slachtoffer het gevoel te geven dat hij of zij speciaal is, voeren ze in werkelijkheid tegelijkertijd soortgelijke chatsessies met tientallen mensen. Uiteindelijk wil een slachtoffer misschien een videogesprek, om zijn of haar ingebeelde geliefde te ontmoeten of om te bevestigen dat een investeringskans legitiem is (of beide). 

Chatmedewerkers zijn misschien niet in staat om slachtoffers via video te charmeren, vooralals ze zelf slachtoffer zijn, lange diensten moeten draaien en fysiek worden mishandeld.  Dus wanneer een slachtoffer om een videogesprek vraagt, schakelen de oplichters een gespecialiseerd 'AI-model' in met sterke interpersoonlijke vaardigheden om het slachtoffer te charmeren. Ondanks de naam zijn het echte mensen die zijn ingehuurd om in videogesprekken te verschijnen. De deepfake past hun uiterlijk aan zodat het overeenkomt met de fictieve persoon die het slachtoffer hoopt te zien. 

Oplichters plaatsen wervingsadvertenties voor deze modellen, en velen lijken bereid te zijn om op deze vacatures te solliciteren. Humanity Research Consultancy, een onderzoeksgroep die de toeleveringsketens van mensenhandel in kaart brengt,ontdekteeen advertentie van een 24-jarige Oezbeekse vrouw die zichzelf Angel noemde. Ze beweerde vier talen te spreken en een jaar ervaring te hebben als AI-model. Ze vroeg 7.000 dollar per maand voor haar diensten. 

De toename van het aantal oplichtingspraktijken 

Hoe kunnen deze oplichtingscentra überhaupt bestaan?Volgenshet Australian Strategic Policy Institute heeft de militaire staatsgreep in Myanmar in 2021 bijgedragen aan een explosieve toename van fraude. Het aantal oplichtingscentra langs de Thaise grens ismeer dan verdubbeldnu criminele organisaties zich in die regio vestigen, evenals in Myanmar, Cambodja en Laos. 

Deze oplichtingscentra worden vaak gedoogd omdat ze de kas van de lokale milities spekken. Er zijn echter ook tegenmaatregelen genomen. Invallen en grensoverschrijdende acties hebben geleid tot arrestaties en de overbrenging van grote aantallen verdachten tussen landen, waaronder operaties gericht op complexen zoals KK Park in Myawaddy. Ook Cambodja en Myanmar hebben aangegeven meer inspanningen te zullen leveren om oplichtingspraktijken aan te pakken, hoewel de netwerken zeer veerkrachtig blijven.

Dit soort activiteiten wordt steeds eenvoudiger naarmate de technologie vordert. deepfake realtime gezichtsvervanging en deepfake zijn inmiddels zo geavanceerd dat ze niet alleen vooraf opgenomen filmpjes, maar ook live video aankunnen. We hebben al gezien dat realtime deepfakes voor van alles deepfakes , vansollicitatiegesprekkentothet zich voordoen als bankdirecteuren om miljoenen te verduisteren. Wat hier nieuw is, is de schaal: het feit dat mensen tientallen of zelfs honderden telefoontjes per dag afhandelen voor romance-scams en crypto-investeringsfraude, toont aan dat dit nu op grote schaal gebeurt. 

Hoe blijf je veilig

Dit is het probleem met deepfake : de gebruikelijke ‘verklikkers’ waarmee je ze kunt herkennen, verdwijnen langzaam. Vroeger deepfake een duidelijk teken van een deepfake iemand met een verkeerd aantal vingers of vreemde haarlijnen. Je kunt de lat bij live gesprekken hoger leggen door iemand te vragen zich opzij te draaien. Laat ze hun neus aanraken en met hun vingers voor hun gezicht zwaaien. Het is moeilijker voordeepfake om met die extra ruis om te gaan. 

Maar let op: de algoritmen waarmee deepfakes worden gemaakt, deepfakes steeds beter en kunnen dergelijke tests steeds gemakkelijker doorstaan. We zijn op een punt gekomen waarop dezedeepfake zegt dat veel meer mensen er dit jaar door zullen worden misleid. 

Als je niet volledig kunt vertrouwen op wat je ziet, ga dan uit van wat je weet. Wees op je hoede voor ongevraagd contact, vooral als iemand snel een emotionele band probeert op te bouwen of een investeringsmogelijkheid aanprijst. Zelfs als een profiel er professioneel uitziet of een website betrouwbaar lijkt, neem dan de tijd om wat dieper te graven.

Deel geen persoonlijke of financiële gegevens met iemand die je alleen online hebt ontmoet, en wees op je hoede voor mensen die je tot overhaaste beslissingen willen aanzetten of vragen om het gesprek buiten de gebruikelijke platforms voort te zetten. De FBI geeft op haar website een aantal goede tips

Het gevaarlijkste aspect van deze trenddeepfake is dat deze oplichters helpt de laatste grens te overschrijden. Een echt persoon kan een oplichtingspoging afslaan, iets wat een simpele chatinteractie niet kan. Daarom hebben mensen zoals Angel uit Oezbekistan een baan, en moet je meer dan ooit op je hoede zijn. 


We rapporteren niet alleen over zwendel, we helpen ook bij het opsporen ervan

Cyberbeveiligingsrisico's mogen nooit verder reiken dan een krantenkop. Als iets u verdacht lijkt, controleer dan of het om oplichting gaat met Malwarebytes Guard. Stuur een screenshot, plak verdachte inhoud of deel een link, tekst of telefoonnummer, en wij vertellen u of het om oplichting gaat of dat het legitiem is. Beschikbaar met Malwarebytes Premium voor al uw apparaten en in de Malwarebytes voor iOS Android.

Over de auteur

Danny Bradbury is sinds 1989 journalist gespecialiseerd in technologie en sinds 1994 freelance schrijver. Hij behandelt een breed scala aan technologische onderwerpen voor doelgroepen variërend van consumenten tot softwareontwikkelaars en CIO's. Hij schrijft ook als ghostwriter artikelen voor veel C-suite business executives in de technologiesector. Hij komt uit het Verenigd Koninkrijk maar woont nu in West-Canada.