Betrüger setzen „KI-Modelle“ ein, um bei deepfake ogesprächen den Abschluss zu sichern

| 24. März 2026
Deepfake -Modell

Betrugsbetriebe in Südostasien haben sich bereits zu modernen Sklavenfarmen entwickelt, in denen Opfer gefangen gehalten und viele von ihnen gezwungen werden, für sie Betrugsdelikte zu begehen. Nun haben sie eine weitere Art von Arbeitskräften hinzugewonnen: sogenannte KI-Modelle.

Diese professionellen Betrüger führen Videoanrufe mit ihren Opfern durch und überreden diese auf charmante Weise, ihnen Geld zu übergeben. WieWIREDdiese Wocheberichtete, wirdinStellenanzeigen beschrieben, dass die Mitarbeiter täglich rund hundert Live-Videoanrufe bearbeiten sollen, um in groß angelegten Betrugsoperationen in Kambodscha, Myanmar und Laos Liebesbetrug und Krypto-Betrug zu fördern. 

Diese Betrugsbetriebe setzen bereits auf Chat-Mitarbeiter, um ihre Opfer über Messaging-Apps zu ködern. Viele dieser Mitarbeiter sind selbst Opfer von Menschenhandel und werden unter Androhung von Gewalt zu langen Schichten gezwungen. Im Laufe der Zeit bauen sie Beziehungen zu den Opfern auf und nutzen dabei deren Einsamkeit oder finanzielle Sorgen aus. Während sie einem Opfer das Gefühl geben, etwas Besonderes zu sein, führen sie gleichzeitig ähnliche Chat-Gespräche mit Dutzenden von Menschen. Schließlich möchte ein Opfer vielleicht einen Videoanruf, entweder um seinen imaginären Liebsten zu treffen oder um zu bestätigen, dass eine Investitionsmöglichkeit seriös ist (oder beides). 

Chat-Mitarbeiter sind möglicherweise nicht in der Lage, Opfer per Video zu bezaubern, insbesonderewenn sie selbst Opfer sind, zu langen Schichten gezwungen werden und körperlich misshandelt werden.  Wenn ein Opfer also um einen Videoanruf bittet, ziehen die Betrugsbosse ein spezielles „KI-Modell“ mit ausgeprägten zwischenmenschlichen Fähigkeiten hinzu, um das Opfer zu bezaubern. Trotz des Namens handelt es sich dabei um echte Menschen, die dafür engagiert wurden, in Videoanrufen aufzutreten. Die deepfake passt ihr Aussehen so an, dass es der fiktiven Person entspricht, die das Opfer zu sehen hofft. 

Betrüger schalten Stellenanzeigen für diese Models, und viele scheinen bereit zu sein, sich auf diese Stellen zu bewerben. Humanity Research Consultancy, eine investigative Forschungsgruppe, die Lieferketten des Menschenhandels nachverfolgt,identifizierteeine Anzeige einer 24-jährigen Usbekin, die sich „Angel“ nannte. Sie gab an, vier Sprachen zu sprechen und über ein Jahr Erfahrung als KI-Model zu verfügen. Für ihre Dienste verlangte sie monatlich 7.000 Dollar. 

Die Zunahme von Betrugsfällen 

Wie kommt es überhaupt, dass es solche Betrugszentren gibt?Nach Angabendes Australian Strategic Policy Institute hat der Militärputsch in Myanmar im Jahr 2021 zu einem Boom der Betrugsdelikte beigetragen. Die Zahl der Betrugszentren entlang der thailändischen Grenze hat sichmehr als verdoppelt, da kriminelle Vereinigungen in diese Region sowie nach Myanmar, Kambodscha und Laos vordringen. 

Diese Betrugszentren werden oft geduldet, weil sie die Kassen der lokalen Milizen füllen. Es wurden jedoch einige Gegenmaßnahmen ergriffen. Razzien und grenzüberschreitende Razzien haben zu Festnahmen und zur Überstellung zahlreicher Verdächtiger zwischen den Ländern geführt, darunter auch Operationen, die auf Anlagen wie den KK Park in Myawaddy abzielten. Auch Kambodscha und Myanmar haben verstärkte Anstrengungen zur Bekämpfung von Betrugsoperationen angekündigt, obwohl sich die Netzwerke nach wie vor als äußerst widerstandsfähig erweisen.

Mit dem technologischen Fortschritt werden solche Aktivitäten immer einfacher. deepfake für den Echtzeit-Gesichtsaustausch und deepfake sind mittlerweile so ausgereift, dass sie nicht nur vorab aufgezeichnete Clips, sondern auch Live-Videos unterstützen. Wir haben bereits gesehen, wie deepfakes für alles Mögliche deepfakes – vonVorstellungsgesprächenbis hinzur Imitation von Bankmanagern, um Millionen zu ergaunern. Neu ist hier das Ausmaß: Die Tatsache, dass Menschen täglich Dutzende oder sogar Hunderte von Anrufen für Liebesbetrug und Krypto-Investitionsbetrug bearbeiten, zeigt, dass es sich mittlerweile um einen Massenbetrug handelt. 

So bleiben Sie sicher 

Das Problem bei deepfake ist: Die üblichen „Verräterzeichen“, an denen man sie erkennen kann, verschwinden zunehmend. Früher deepfake ein sicheres Anzeichen für einen deepfake jemand mit einer falschen Anzahl an Fingern oder Unregelmäßigkeiten im Haaransatz. Bei Live-Anrufen können Sie die Hürde erhöhen, indem Sie jemanden bitten, sich seitlich zu drehen. Lassen Sie ihn seine Nase berühren und mit den Fingern vor dem Gesicht winken. Fürdeepfake ist es schwieriger, mit diesen zusätzlichen Störfaktoren umzugehen. 

Aber Vorsicht: Die Algorithmen, mit denen deepfakes erzeugt werden, deepfakes immer besser und können solche Tests immer leichter bewältigen. Wir sind an einem Punkt angelangt, an dem laut diesemdeepfake in diesem Jahr viel mehr von uns darauf hereinfallen werden. 

Wenn Sie dem, was Sie sehen, nicht voll und ganz vertrauen können, verlassen Sie sich auf das, was Sie wissen. Seien Sie vorsichtig bei unaufgeforderten Kontaktaufnahmen, insbesondere wenn jemand schnell eine emotionale Bindung aufbaut oder Ihnen eine Investitionsmöglichkeit vorschlägt. Auch wenn ein Profil seriös wirkt oder eine Website vertrauenswürdig erscheint, nehmen Sie sich die Zeit, etwas genauer hinzuschauen.

Geben Sie keine persönlichen oder finanziellen Daten an Personen weiter, die Sie nur online kennengelernt haben, und seien Sie vorsichtig bei jedem, der Sie zu schnellen Entscheidungen drängt oder Sie dazu auffordert, die Kommunikation auf andere Plattformen zu verlagern. Das FBI bietet auf seiner Website einige gute Ratschläge

Das Gefährlichste an diesem Trenddeepfake ist, dass er Betrügern dabei hilft, die letzte Grenze zu überschreiten. Ein echter Mensch kann einen Betrugsversuch vereiteln, was eine einfache Chat-Interaktion nicht vermag. Deshalb haben Menschen wie Angel aus Usbekistan einen Job, und deshalb müssen Sie wachsamer sein als je zuvor. 


Wir berichten nicht nur über Betrugsfälle - wir helfen, sie aufzudecken

Cybersicherheitsrisiken sollten niemals über eine Schlagzeile hinausgehen. Wenn Ihnen etwas verdächtig erscheint, überprüfen Sie mit Malwarebytes Guard, ob es sich um einen Betrug handelt. Senden Sie einen Screenshot, fügen Sie verdächtige Inhalte ein oder teilen Sie einen Link, einen Text oder eine Telefonnummer, und wir sagen Ihnen, ob es sich um einen Betrug handelt oder nicht. Verfügbar mit Malwarebytes Premium für alle Ihre Geräte und in der Malwarebytes für iOS Android.

Über den Autor

Danny Bradbury ist seit 1989 Journalist mit Schwerpunkt Technologie und seit 1994 freiberuflicher Autor. Er berichtet über eine breite Palette von Technologiethemen für ein Publikum, das von Verbrauchern bis hin zu Softwareentwicklern und CIOs reicht. Er schreibt auch Ghostwriting-Artikel für viele Führungskräfte im Technologiesektor. Er stammt aus dem Vereinigten Königreich, lebt aber jetzt in Westkanada.