Wie KI Betrugsfälle im Jahr 2025 überzeugender machte

| 2. Januar 2026
verurteilte KI

Dieser Blog ist Teil einer Reihe, in der wir neue oder sich schnell entwickelnde Bedrohungen für die Verbrauchersicherheit beleuchten. Dieser Beitrag konzentriert sich darauf, wie KI eingesetzt wird, um realistischere Kampagnen zu entwickeln, Social Engineering zu beschleunigen und wie KI-Agenten eingesetzt werden können, um Einzelpersonen anzusprechen.

Die meisten Cyberkriminellen bleiben bei dem, was funktioniert. Sobald sich jedoch eine neue Methode als wirksam erweist, verbreitet sie sich schnell – und es folgen neue Trends und Arten von Kampagnen.

Im Jahr 2025 gingen die rasante Entwicklung der künstlichen Intelligenz(KI) und deren Einsatz in der Cyberkriminalität Hand in Hand. Im Allgemeinen ermöglicht KI Kriminellen, den Umfang, die Geschwindigkeit und die Personalisierung von Social Engineering durch realistische Texte, Stimmen und Videos zu verbessern. Die Opfer müssen nicht nur finanzielle Verluste hinnehmen, sondern auch einen Vertrauensverlust in die digitale Kommunikation und Institutionen.

Social Engineering

Stimmklonen

Einer der Hauptbereiche, in denen sich die KI verbessert hat, war das Klonen von Stimmen, was von Betrügern sofort aufgegriffen wurde. In der Vergangenheit gaben sie sich meist als Freunde und Verwandte aus. Im Jahr 2025 gingen sie sogar so weit, sich als hochrangige US-Beamte auszugeben. Die Ziele waren überwiegend aktuelle oder ehemalige Beamte der US-Bundes- oder Landesregierung und deren Kontakte.

Im Rahmen dieser Kampagnen verwendeten Cyberkriminelle sowohl Testnachrichten als auch KI-generierte Sprachnachrichten. Gleichzeitig gaben sie den Ansatz mit der verzweifelten Familie nicht auf. Eine Frau in Florida wurde dazu verleitet, einem Betrüger Tausende von Dollar zu übergeben, nachdem die Stimme ihrer Tochter mithilfe von KI geklont und für einen Betrug verwendet worden war.

KI-Agenten

Agentische KI ist der Begriff für individualisierte KI-Agenten, die dafür entwickelt wurden, Aufgaben autonom auszuführen. Eine solche Aufgabe könnte darin bestehen, öffentlich zugängliche oder gestohlene Informationen über eine Person zu suchen und diese Informationen zu nutzen, um einen sehr überzeugenden Phishing-Köder zu erstellen.

Diese Agenten könnten auch dazu verwendet werden, Opfer zu erpressen, indem sie gestohlene Daten mit öffentlich bekannten E-Mail-Adressen oder Social-Media-Konten abgleichen, Nachrichten verfassen und Gespräche mit Personen führen, die glauben, dass ein menschlicher Angreifer direkten Zugriff auf ihre Sozialversicherungsnummer, ihre physische Adresse, ihre Kreditkartendaten und mehr hat.

Eine weitere häufig anzutreffende Anwendung ist die KI-gestützte Erkennung von Schwachstellen. Diese Tools werden sowohl von Angreifern als auch von Verteidigern eingesetzt. Google nutzt beispielsweise ein Projekt namens „Big Sleep“, mit dem mehrere Schwachstellen im Chrome entdeckt wurden.

Soziale Medien

Wie im Abschnitt über KI-Agenten erwähnt, ist die Kombination von Daten aus sozialen Medien mit Daten, die bei Hackerangriffen gestohlen wurden, eine gängige Taktik. Solche frei verfügbaren Daten sind auch eine reichhaltige Quelle für Liebesbetrug, Sextortion und Urlaubsbetrug.

Soziale Medien werden auch häufig genutzt, um gefälschte Produkte, durch KI generierte Desinformation, gefährliche Güter und per Direktversand gelieferte Waren zu verkaufen.

Prompt-Injektion

Und dann gibt es noch die Schwachstellen in öffentlichen KI-Plattformen wie ChatGPT, Perplexity, Claude und vielen anderen. Forscher und Kriminelle suchen nach wie vor nach Möglichkeiten, die Sicherheitsvorkehrungen zu umgehen, die den Missbrauch einschränken sollen.

Prompt Injection ist der allgemeine Begriff dafür, wenn jemand sorgfältig ausgearbeitete Eingaben in Form einer gewöhnlichen Konversation oder von Daten einfügt, um eine KI dazu zu bewegen oder zu zwingen, etwas zu tun, was sie eigentlich nicht tun sollte.

Malware-Kampagnen

In einigen Fällen haben Angreifer KI-Plattformen genutzt, um Malware zu schreiben und zu verbreiten. Forscher haben Kampagnen dokumentiert, bei denen Angreifer Claude AI einsetzten, um den gesamten Angriffszyklus zu automatisieren, von der ersten Kompromittierung des Systems bis zur Erstellung von Lösegeldforderungen, wobei sie sich auf Sektoren wie Regierung, Gesundheitswesen und Rettungsdienste konzentrierten.

Seit Anfang 2024 hat OpenAI nach eigenen Angaben weltweit mehr als 20 Kampagnen unterbunden, die versuchten, seine KI-Plattform für kriminelle Aktivitäten und betrügerische Kampagnen zu missbrauchen.

Ausblick

KI erweitert die Fähigkeiten sowohl von Verteidigern als auch von Angreifern. Sicherheitsteams können damit die Erkennung automatisieren, Muster schneller erkennen und den Schutz skalieren. Cyberkriminelle hingegen nutzen KI, um Social Engineering zu verfeinern, Schwachstellen schneller zu entdecken und mit minimalem Aufwand End-to-End-Kampagnen aufzubauen.

Mit Blick auf das Jahr 2026 dürfte die größte Veränderung nicht technischer, sondern psychologischer Natur sein. Da KI-generierte Inhalte immer schwerer von echten Inhalten zu unterscheiden sind, wird die Überprüfung von Stimmen, Nachrichten und Identitäten wichtiger denn je sein.


Wir berichten nicht nur über Bedrohungen - wir beseitigen sie

Cybersecurity-Risiken sollten nie über eine Schlagzeile hinausgehen. Laden Sie noch heute Malwarebytes herunter, um Bedrohungen von Ihren Geräten fernzuhalten.

Über den Autor

Pieter Arntz

Malware-Forscher

War 12 Jahre in Folge Microsoft MVP im Bereich Verbrauchersicherheit. Spricht vier Sprachen. Riecht nach edlem Mahagoni und ledergebundenen Büchern.