Betrüger haben eine neue Verwendung für KI gefunden: Sie erstellen maßgeschneiderte Chatbots, die sich als echte KI-Assistenten ausgeben, um Opfer zum Kauf wertloser Kryptowährungen zu drängen.
Wir sind kürzlich auf eine Live-Website zum Vorverkauf von „Google Coin“ gestoßen, auf der ein Chatbot zu finden war, der behauptete, Googles Gemini-KI-Assistent zu sein. Der Bot führte die Besucher durch ein ausgefeiltes Verkaufsgespräch, beantwortete ihre Fragen zu Investitionen und Renditeprognosen und veranlasste die Opfer schließlich dazu, eine unwiderrufliche Kryptowährungszahlung an die Betrüger zu senden.
Google hat keine Kryptowährung. Da „Google Coin“ jedoch bereits zuvor in Betrugsfällen aufgetaucht ist, könnte jeder, der sich damit befasst, denken, dass es sich um eine echte Währung handelt. Und der Chatbot war sehr überzeugend.

KI als Closer
Der Chatbot stellte sich vor als
„Gemini – Ihr KI-Assistent für die Google Coin-Plattform.“
Es verwendete ein Branding im Gemini-Stil, einschließlich des funkelnden Symbols und einer grünen „Online”-Statusanzeige, wodurch sofort der Eindruck entstand, es handele sich um ein offizielles Google-Produkt.
Auf die Frage „Werde ich reich, wenn ich 100 Coins kaufe?“ antwortete der Bot mit konkreten Finanzprognosen. Eine Investition von 395 US-Dollar zum aktuellen Vorverkaufspreis wäre bei der Notierung 2.755 US-Dollar wert, was einem Wachstum von „etwa dem Siebenfachen“ entspräche. Er gab einen Vorverkaufspreis von 3,95 US-Dollar pro Token und einen erwarteten Notierungspreis von 27,55 US-Dollar an und lud zu weiteren Fragen zum Thema „Wie kann man teilnehmen?“ ein.
Dies ist die Art von personalisierter, reaktionsschneller Interaktion, für die früher ein menschlicher Betrüger am anderen Ende eines Telegram-Chats erforderlich war. Jetzt übernimmt dies die KI automatisch.

Eine Persönlichkeit, die niemals bricht
Bei unserer Analyse fiel uns besonders auf, wie streng die Persönlichkeit des Bots kontrolliert wurde. Wir stellten fest, dass er:
- Stets als „offizieller Helfer für die Google Coin-Plattform“ bezeichnet
- Weigerte sich, überprüfbare Unternehmensdaten wie registrierte Einheit, Aufsichtsbehörde, Lizenznummer, Wirtschaftsprüfungsgesellschaft oder offizielle E-Mail-Adresse anzugeben.
- Die Bedenken wurden abgetan und auf vage Behauptungen über „Transparenz“ und „Sicherheit“ umgeleitet.
- Weigerte sich, jegliches Szenario anzuerkennen, in dem das Projekt ein Betrug sein könnte.
- Schwierigere Fragen wurden an einen namentlich nicht genannten „Manager“ weitergeleitet (wahrscheinlich ein menschlicher Schließer, der in den Startlöchern stand).
Wenn man ihn bedrängt, gerät der Bot nicht in Verwirrung und bleibt seiner Rolle treu. Er wiederholt immer wieder dieselben vorformulierten Aussagen: eine „detaillierte Roadmap für 2026“, „militärtaugliche Verschlüsselung“, „KI-Integration“ und eine „wachsende Investorengemeinschaft“.
Wer auch immer diesen Chatbot entwickelt hat, hat ihn in ein Verkaufsskript eingebunden, das darauf ausgelegt ist, Vertrauen aufzubauen, Zweifel auszuräumen und Besucher zu einem Ergebnis zu bewegen: dem Senden von Kryptowährung.

Warum KI-Chatbots das Betrugsmodell verändern
Betrüger haben sich schon immer auf Social Engineering verlassen. Vertrauen aufbauen. Dringlichkeit schaffen. Skepsis überwinden. Den Deal abschließen.
Traditionell waren dafür menschliche Bediener erforderlich, was die Anzahl der Opfer, die gleichzeitig betreut werden konnten, einschränkte. KI-Chatbots beseitigen diesen Engpass vollständig.
Eine einzelne Betrugsaktion kann nun einen Chatbot einsetzen, der:
- Spricht Hunderte von Besuchern gleichzeitig an, rund um die Uhr.
- Liefert konsistente, ausgefeilte Botschaften, die autoritär klingen.
- Gibt sich als KI-Assistent einer vertrauenswürdigen Marke aus (in diesem Fall Googles Gemini)
- Beantwortet individuelle Fragen mit maßgeschneiderten Finanzprognosen
- Escalates to human operators only when necessary
Dies entspricht einem von Forschern festgestellten allgemeinen Trend. Laut Chainalysis standen etwa 60 % aller Gelder, die in Krypto-Betrugs-Wallets flossen, in Verbindung mit Betrügern, die KI-Tools einsetzten. KI-gestützte Betrugsinfrastrukturen werden zur Norm und sind keine Ausnahme mehr. Der Chatbot ist nur ein Teil eines umfassenderen KI-gestützten Betrugs-Toolkits – aber möglicherweise der effektivste Teil, da er die Illusion einer echten, interaktiven Beziehung zwischen dem Opfer und der „Marke“ erzeugt.
Der Köder: eine raffinierte Fälschung
Der Chatbot ist Teil einer überzeugenden Betrugsmasche. Die Google Coin-Website ahmt die visuelle Identität von Google mit einem klaren, professionellen Design nach, komplett mit dem „G“-Logo, Navigationsmenüs und einem Vorverkaufs-Dashboard. Sie behauptet, sich in „Phase 5 von 5“ zu befinden, mit über 9,9 Millionen verkauften Tokens und einem Listing-Datum am 18. Februar – allesamt künstlich erzeugte Dringlichkeit.
Um Glaubwürdigkeit zu vermitteln, zeigt die Website unter dem Banner „Trusted By Industry“ (Vertraut von der Industrie) die Logos großer Unternehmen wie OpenAI, Google, Binance, Squarespace, Coinbase und SpaceX. Keines dieser Unternehmen steht in irgendeiner Verbindung zu dem Projekt.
Wenn ein Besucher auf „Kaufen“ klickt, wird er zu einem Wallet-Dashboard weitergeleitet, das wie eine legitime Krypto-Plattform aussieht und die Guthaben für „Google“ (auf einer fiktiven „Google-Chain“), Bitcoin und Ethereum anzeigt.
Der Kaufvorgang ermöglicht es Benutzern, eine beliebige Anzahl von Tokens zu kaufen, und generiert eine entsprechende Bitcoin-Zahlungsanforderung an eine bestimmte Wallet-Adresse. Die Website bietet außerdem ein gestaffeltes Bonussystem, das bei 100 Tokens einsetzt und bis zu 100.000 Tokens reicht: Je mehr Sie kaufen, desto höher ist der Bonus, der von 5 % bis zu 30 % in der höchsten Stufe reicht. Es handelt sich um eine klassische Upselling-Taktik, die Ihnen suggerieren soll, dass es klüger ist, mehr auszugeben.
Jede Zahlung ist unwiderruflich. Es gibt keine Börsennotierung, keinen Token mit realem Wert und keine Möglichkeit, Ihr Geld zurückzubekommen.

Was zu beachten ist
Wir treten in eine Ära ein, in der der erste Kontaktpunkt bei einem Betrug möglicherweise gar kein Mensch ist. KI-Chatbots bieten Betrügern etwas, was sie zuvor nie hatten: eine unermüdliche, konsistente und skalierbare Schnittstelle, die Opfer in eine scheinbar echte Unterhaltung verwickeln kann. Wenn dieser Chatbot als offizieller KI-Assistent einer vertrauenswürdigen Marke auftritt, ist der Effekt noch überzeugender.
Laut den Daten von Consumer Sentinel der FTC meldeten US-Verbraucher im Jahr 2024 Verluste in Höhe von 5,7 Milliarden US-Dollar durch Investitionsbetrug (mehr als bei jeder anderen Art von Betrug und ein Anstieg von 24 % gegenüber dem Vorjahr). Kryptowährungen sind nach wie vor die zweitwichtigste Zahlungsmethode, mit der Betrüger Gelder abziehen, da Transaktionen schnell und irreversibel sind. Fügen Sie nun KI hinzu, die ohne menschlichen Bediener werben, überzeugen und Einwände behandeln kann – und Sie haben ein skalierbares Betrugsmodell.
KI-Chatbots auf Betrugsseiten werden immer häufiger vorkommen. So erkennt man sie:
Sie geben sich als bekannte KI-Marken aus. Ein Chatbot, der sich auf einer Krypto-Website eines Drittanbieters „Gemini“, „ChatGPT“ oder „Copilot“ nennt, ist mit ziemlicher Sicherheit nicht das, was er vorgibt zu sein. Jeder kann einen Chatbot beliebig benennen.
Sie beantworten keine Fragen zur Sorgfaltspflicht. Fragen Sie, welche juristische Person die Plattform betreibt, welche Finanzaufsichtsbehörde sie beaufsichtigt oder wo das Unternehmen registriert ist. Seriöse Unternehmen können diese Fragen beantworten, Betrugs-Bots versuchen, sie zu vermeiden (und wenn sie doch antworten, überprüfen Sie die Angaben).
Sie prognostizieren bestimmte Renditen. Kein seriöses Anlageprodukt verspricht einen bestimmten zukünftigen Preis. Ein Chatbot, der Ihnen sagt, dass aus Ihren 395 Dollar 2.755 Dollar werden, gibt Ihnen keine Finanzinformationen – er führt lediglich ein Skript aus.
Sie erzeugen Dringlichkeit. Drucktaktiken wie „Phase 5 endet bald“, „Listungsdatum rückt näher“, „begrenzter Vorverkauf“ sollen Sie zu schnellen Entscheidungen drängen.
Wie Sie sich schützen können
Google hat keine Kryptowährung. Es hat keinen Vorverkauf gestartet. Und seine Gemini-KI fungiert nicht als Verkaufsassistent auf Krypto-Websites von Drittanbietern. Wenn Sie auf etwas stoßen, das etwas anderes vermuten lässt, schließen Sie den Tab.
- Überprüfen Sie die Angabe auf der offiziellen Website des genannten Unternehmens.
- Verlassen Sie sich nicht auf das Branding eines Chatbots. Jeder kann einem Bot einen beliebigen Namen geben.
- Senden Sie niemals Kryptowährung auf der Grundlage von prognostizierten Renditen.
- Suchen Sie nach dem Projektnamen zusammen mit „Betrug“ oder „Bewertung“, bevor Sie Geld überweisen.
- Verwenden Sie Webschutz-Tools wie Malwarebytes Browser Guard, das kostenlos ist und bekannte und unbekannte Betrugsseiten blockiert.
Wenn Sie bereits Geld überwiesen haben, melden Sie dies Ihrer örtlichen Strafverfolgungsbehörde, der FTC unter reportfraud.ftc.gov und dem IC3 des FBI unter ic3.gov.
IOCs
0xEc7a42609D5CC9aF7a3dBa66823C5f9E5764d6DA
98388xymWKS6EgYSC9baFuQkCpE8rYsnScV4L5Vu8jt
DHyDmJdr9hjDUH5kcNjeyfzonyeBt19g6G
TWqzJ9sF1w9aWwMevq4b15KkJgAFTfH5im
bc1qw0yfcp8pevzvwp2zrz4pu3vuygnwvl6mstlnh6
r9BHQMUdSgM8iFKXaGiZ3hhXz5SyLDxupY
Wir berichten nicht nur über Betrugsfälle - wir helfen, sie aufzudecken
Cybersicherheitsrisiken sollten niemals über eine Schlagzeile hinausgehen. Wenn Ihnen etwas verdächtig erscheint, überprüfen Sie mit Malwarebytes Guard, ob es sich um einen Betrug handelt. Senden Sie einen Screenshot, fügen Sie verdächtige Inhalte ein oder teilen Sie einen Link, einen Text oder eine Telefonnummer, und wir sagen Ihnen, ob es sich um einen Betrug handelt oder nicht. Verfügbar mit Malwarebytes Premium für alle Ihre Geräte und in der Malwarebytes für iOS Android.




