Ce blog fait partie d'une série dans laquelle nous mettons en évidence les menaces nouvelles ou en rapide évolution dans le domaine de la sécurité des consommateurs. Celui-ci se concentre sur la manière dont l'IA est utilisée pour concevoir des campagnes plus réalistes, accélérer l'ingénierie sociale et cibler des individus.
La plupart des cybercriminels s'en tiennent à ce qui fonctionne. Mais dès qu'une nouvelle méthode s'avère efficace, elle se répand rapidement, et de nouvelles tendances et types de campagnes apparaissent.
En 2025, le développement rapide de l'intelligence artificielle(IA) et son utilisation dans la cybercriminalité ont évolué de pair. De manière générale, l'IA permet aux criminels d'améliorer l'ampleur, la rapidité et la personnalisation de l'ingénierie sociale grâce à des textes, des voix et des vidéos réalistes. Les victimes subissent non seulement des pertes financières, mais aussi une érosion de la confiance dans les communications numériques et les institutions.
Ingénierie sociale
Clonage vocal
L'un des principaux domaines dans lesquels l'IA s'est améliorée est celui du clonage vocal, qui a immédiatement été repris par les escrocs. Auparavant, ceux-ci se contentaient généralement d'usurper l'identité d'amis ou de proches. En 2025, ils sont allés jusqu'à usurper l'identité de hauts responsables américains. Les cibles étaient principalement des fonctionnaires fédéraux ou étatiques américains, actuels ou anciens, ainsi que leurs contacts.
Au cours de ces campagnes, les cybercriminels ont utilisé des messages tests ainsi que des messages vocaux générés par l'IA. Parallèlement, ils n'ont pas abandonné l'angle de la famille en détresse. Une femme en Floride a été amenée à remettre des milliers de dollars à un escroc après que la voix de sa fille ait été clonée par l'IA et utilisée dans une arnaque.
agents IA
L'IA agentique est le terme utilisé pour désigner les agents IA individualisés conçus pour effectuer des tâches de manière autonome. L'une de ces tâches pourrait consister à rechercher des informations accessibles au public ou volées sur une personne et à utiliser ces informations pour créer un leurre de phishing très convaincant.
Ces agents pourraient également être utilisés pour extorquer les victimes en associant les données volées à des adresses électroniques ou à des comptes de réseaux sociaux connus du public, en rédigeant des messages et en entretenant des conversations avec des personnes qui pensent qu'un pirate informatique a directement accès à leur numéro de sécurité sociale, leur adresse physique, les détails de leur carte de crédit, etc.
Une autre utilisation fréquente est la détection des vulnérabilités assistée par l'IA. Ces outils sont utilisés aussi bien par les attaquants que par les défenseurs. Par exemple, Google utilise un projet appelé Big Sleep, qui a permis de détecter plusieurs vulnérabilités dans le Chrome .
Médias sociaux
Comme mentionné dans la section consacrée aux agents IA, combiner les données publiées sur les réseaux sociaux avec celles volées lors de violations de données est une tactique courante. Ces données fournies librement constituent également un terrain fertile pour les escroqueries sentimentales, le chantage sexuel et les escroqueries liées aux vacances.
Les plateformes de réseaux sociaux sont également largement utilisées pour vendre des produits contrefaits, des informations trompeuses générées par l'IA, des marchandises dangereuses et des produits livrés en drop shipping.
Injection rapide
Et puis, il y a les vulnérabilités des plateformes d'IA publiques telles que ChatGPT, Perplexity, Claude et bien d'autres. Les chercheurs et les criminels continuent d'explorer les moyens de contourner les mesures de sécurité destinées à limiter les abus.
L'injection de prompt est le terme général utilisé pour désigner le fait d'insérer des données soigneusement élaborées, sous la forme d'une conversation ou de données ordinaires, afin d'inciter ou de forcer une IA à faire quelque chose qu'elle n'était pas censée faire.
Campagnes de logiciels malveillants
Dans certains cas, les pirates ont utilisé des plateformes d'IA pour créer et diffuser des logiciels malveillants. Des chercheurs ont documenté une campagne dans laquelle les pirates ont exploité Claude AI pour automatiser l'ensemble du cycle de vie de l'attaque, depuis la compromission initiale du système jusqu'à la génération de la demande de rançon, en ciblant des secteurs tels que les administrations publiques, les soins de santé et les services d'urgence.
Depuis début 2024, OpenAI affirme avoir déjoué plus de 20 campagnes à travers le monde qui tentaient d'utiliser abusivement sa plateforme d'IA à des fins criminelles et pour mener des campagnes trompeuses.
Regarder vers l'avenir
L'IA amplifie les capacités des défenseurs comme des attaquants. Les équipes de sécurité peuvent l'utiliser pour automatiser la détection, repérer plus rapidement les schémas et adapter la protection. Les cybercriminels, quant à eux, l'utilisent pour affiner leurs techniques d'ingénierie sociale, découvrir plus rapidement les vulnérabilités et mettre en place des campagnes de bout en bout avec un minimum d'efforts.
À l'horizon 2026, le changement le plus important ne sera peut-être pas d'ordre technique, mais psychologique. À mesure que les contenus générés par l'IA deviendront plus difficiles à distinguer des contenus réels, la vérification des voix, des messages et des identités prendra plus d'importance que jamais.
Nous ne nous contentons pas de signaler les menaces, nous les éliminons.
Les risques de cybersécurité ne devraient jamais se propager au-delà d'un titre. Éliminez les menaces de vos appareils en téléchargeant Malwarebytes dès aujourd'hui.




