Hoe AI oplichting in 2025 overtuigender maakte

| 2 januari 2026
veroordeelde AI

Deze blog maakt deel uit van een reeks waarin we nieuwe of snel evoluerende bedreigingen voor de veiligheid van consumenten belichten. Deze blog gaat over hoe AI wordt gebruikt om realistischere campagnes te ontwerpen, social engineering te versnellen en hoe AI-agenten kunnen worden ingezet om individuen te targeten.

De meeste cybercriminelen blijven bij wat werkt. Maar zodra een nieuwe methode effectief blijkt te zijn, verspreidt deze zich snel en volgen er nieuwe trends en soorten campagnes.

In 2025 gingen de snelle ontwikkeling van kunstmatige intelligentie(AI) en het gebruik ervan bij cybercriminaliteit hand in hand. Over het algemeen stelt AI criminelen in staat om de omvang, snelheid en personalisatie van social engineering te verbeteren door middel van realistische tekst, spraak en video. Slachtoffers worden niet alleen geconfronteerd met financieel verlies, maar ook met een afbrokkeling van het vertrouwen in digitale communicatie en instellingen.

Social engineering

Stemklonen

Een van de belangrijkste gebieden waarop AI verbeterd werd, was het klonen van stemmen, wat meteen door oplichters werd opgepikt. In het verleden deden ze zich meestal voor als vrienden en familieleden. In 2025 gingen ze zelfs zo ver dat ze zich voordeden als hoge Amerikaanse functionarissen. De doelwitten waren voornamelijk huidige of voormalige Amerikaanse federale of staatsfunctionarissen en hun contacten.

Tijdens deze campagnes maakten cybercriminelen gebruik van testberichten en door AI gegenereerde spraakberichten. Tegelijkertijd bleven ze inzetten op het verhaal van de familie in nood. Een vrouw in Florida werd misleid om duizenden dollars over te maken aan een oplichter nadat de stem van haar dochter met AI was gekloond en gebruikt in een oplichting.

AI-agenten

Agentic AI is de term die wordt gebruikt voor geïndividualiseerde AI-agenten die zijn ontworpen om taken autonoom uit te voeren. Een van die taken kan zijn om openbaar beschikbare of gestolen informatie over een persoon te zoeken en die informatie te gebruiken om een zeer overtuigende phishing-lokaas samen te stellen.

Deze agenten kunnen ook worden gebruikt om slachtoffers af te persen door gestolen gegevens te koppelen aan openbaar bekende e-mailadressen of socialemedia-accounts, berichten op te stellen en gesprekken te voeren met mensen die denken dat een menselijke aanvaller directe toegang heeft tot hun burgerservicenummer, fysieke adres, creditcardgegevens en meer.

Een ander veelvoorkomend gebruik is het opsporen van kwetsbaarheden met behulp van AI. Deze tools worden zowel door aanvallers als verdedigers gebruikt. Google maakt bijvoorbeeld gebruik van een project genaamd Big Sleep, dat verschillende kwetsbaarheden in de Chrome heeft ontdekt.

Sociale media

Zoals vermeld in het gedeelte over AI-agenten, is het combineren van gegevens die op sociale media worden geplaatst met gegevens die tijdens inbreuken zijn gestolen een veelgebruikte tactiek. Dergelijke vrij beschikbare gegevens vormen ook een rijke voedingsbodem voor romance-scams, sextortion en vakantiescams.

Sociale mediaplatforms worden ook op grote schaal gebruikt om namaakproducten, door AI gegenereerde desinformatie, gevaarlijke goederen en dropshipping-goederen te verkopen.

Snelle injectie

En dan zijn er nog de kwetsbaarheden in openbare AI-platforms zoals ChatGPT, Perplexity, Claude en vele andere. Onderzoekers en criminelen zijn nog steeds op zoek naar manieren om de beveiligingen te omzeilen die bedoeld zijn om misbruik te beperken.

Prompt injection is de algemene term voor wanneer iemand zorgvuldig opgestelde input invoert, in de vorm van een gewoon gesprek of gegevens, om een AI aan te zetten of te dwingen iets te doen wat niet de bedoeling was.

Malwarecampagnes

In sommige gevallen hebben aanvallers AI-platforms gebruikt om malware te schrijven en te verspreiden. Onderzoekers hebben campagnes gedocumenteerd waarbij aanvallers Claude AI gebruikten om de volledige levenscyclus van de aanval te automatiseren, van de eerste compromittering van het systeem tot het genereren van losgeldbriefjes, waarbij ze zich richtten op sectoren zoals de overheid, de gezondheidszorg en hulpdiensten.

Sinds begin 2024 zegt OpenAI meer dan 20 campagnes over de hele wereld te hebben verstoord die probeerden misbruik te maken van zijn AI-platform voor criminele activiteiten en misleidende campagnes.

Vooruitblik

AI versterkt de mogelijkheden van zowel verdedigers als aanvallers. Beveiligingsteams kunnen het gebruiken om detectie te automatiseren, patronen sneller te herkennen en bescherming op te schalen. Cybercriminelen gebruiken het ondertussen om social engineering te verfijnen, kwetsbaarheden sneller te ontdekken en met minimale inspanning end-to-end-campagnes op te zetten.

Als we naar 2026 kijken, is de grootste verandering misschien niet technisch, maar psychologisch. Naarmate AI-gegenereerde content steeds moeilijker te onderscheiden is van de echte, wordt het belangrijker dan ooit om stemmen, berichten en identiteiten te verifiëren.


We rapporteren niet alleen over bedreigingen - we verwijderen ze ook

Cyberbeveiligingsrisico's mogen zich nooit verder verspreiden dan een krantenkop. Houd bedreigingen van uw apparaten door Malwarebytes vandaag nog te downloaden.

Over de auteur

Pieter Arntz

Onderzoeker op het gebied van malware-informatie

Was 12 jaar achtereen een Microsoft MVP in consumentenbeveiliging. Spreekt vier talen. Ruikt naar rijke mahonie en in leer gebonden boeken.