Este blog forma parte de una serie en la que destacamos amenazas nuevas o en rápida evolución en la seguridad de los consumidores. Este se centra en cómo se está utilizando la IA para diseñar campañas más realistas, acelerar la ingeniería social y cómo se pueden utilizar los agentes de IA para atacar a personas concretas.
La mayoría de los ciberdelincuentes se ciñen a lo que funciona. Pero, una vez que un nuevo método demuestra su eficacia, se extiende rápidamente y surgen nuevas tendencias y tipos de campañas.
En 2025, el rápido desarrollo de la inteligencia artificial(IA) y su uso en la ciberdelincuencia fueron de la mano. En general, la IA permite a los delincuentes mejorar la escala, la velocidad y la personalización de la ingeniería social mediante textos, voces y vídeos realistas. Las víctimas se enfrentan no solo a pérdidas económicas, sino también a la erosión de la confianza en las comunicaciones digitales y las instituciones.
Ingeniería social
Clonación de voz
Una de las principales áreas en las que mejoró la IA fue la clonación de voz, que fue inmediatamente aprovechada por los estafadores. En el pasado, se limitaban principalmente a suplantar la identidad de amigos y familiares. En 2025, llegaron incluso a suplantar la identidad de altos funcionarios estadounidenses. Los objetivos eran principalmente funcionarios actuales o antiguos del Gobierno federal o estatal de EE. UU. y sus contactos.
En el transcurso de estas campañas, los ciberdelincuentes utilizaron mensajes de prueba y mensajes de voz generados por IA. Al mismo tiempo, no abandonaron el argumento de la familia angustiada. Una mujer de Florida fue engañada para que entregara miles de dólares a un estafador después de que la voz de su hija fuera clonada por IA y utilizada en una estafa.
agentes de IA
La IA agencial es el término utilizado para referirse a los agentes de IA individualizados diseñados para llevar a cabo tareas de forma autónoma. Una de estas tareas podría ser buscar información pública o robada sobre una persona y utilizarla para crear un señuelo de phishing muy convincente.
Estos agentes también podrían utilizarse para extorsionar a las víctimas, cotejando los datos robados con direcciones de correo electrónico o cuentas de redes sociales conocidas públicamente, redactando mensajes y manteniendo conversaciones con personas que creen que un atacante humano tiene acceso directo a su número de la Seguridad Social, dirección física, datos de la tarjeta de crédito y mucho más.
Otro uso que vemos con frecuencia es el descubrimiento de vulnerabilidades asistido por IA. Estas herramientas son utilizadas tanto por atacantes como por defensores. Por ejemplo, Google utiliza un proyecto llamado Big Sleep, que ha encontrado varias vulnerabilidades en el Chrome .
Redes sociales
Como se menciona en la sección sobre agentes de IA, combinar datos publicados en redes sociales con datos robados durante violaciones de seguridad es una táctica habitual. Estos datos proporcionados libremente también son un terreno fértil para estafas románticas, sextorsión y estafas vacacionales.
Las plataformas de redes sociales también se utilizan ampliamente para vender productos falsos, desinformación generada por IA, mercancías peligrosas y productos enviados directamente por el fabricante.
Inyección inmediata
Y luego están las vulnerabilidades de las plataformas públicas de IA, como ChatGPT, Perplexity, Claude y muchas otras. Tanto los investigadores como los delincuentes siguen explorando formas de eludir las medidas de seguridad destinadas a limitar el uso indebido.
La inyección de comandos es el término general que se utiliza cuando alguien inserta información cuidadosamente elaborada, en forma de conversación o datos normales, para incitar o forzar a una IA a hacer algo que no estaba destinada a hacer.
Campañas de malware
En algunos casos, los atacantes han utilizado plataformas de IA para escribir y propagar malware. Los investigadores han documentado campañas en las que los atacantes aprovecharon Claude AI para automatizar todo el ciclo de vida del ataque, desde el compromiso inicial del sistema hasta la generación de notas de rescate, dirigiéndose a sectores como el gobierno, la sanidad y los servicios de emergencia.
Desde principios de 2024, OpenAI afirma haber desarticulado más de 20 campañas en todo el mundo que intentaban abusar de su plataforma de IA para operaciones delictivas y campañas engañosas.
Mirando hacia el futuro
La IA está ampliando las capacidades tanto de los defensores como de los atacantes. Los equipos de seguridad pueden utilizarla para automatizar la detección, identificar patrones más rápidamente y ampliar la protección. Por su parte, los ciberdelincuentes la están utilizando para perfeccionar la ingeniería social, descubrir vulnerabilidades más rápidamente y crear campañas integrales con un esfuerzo mínimo.
De cara al 2026, es posible que el mayor cambio no sea técnico, sino psicológico. A medida que el contenido generado por IA sea cada vez más difícil de distinguir del real, la verificación de voces, mensajes e identidades será más importante que nunca.
No nos limitamos a informar de las amenazas: las eliminamos
Los riesgos de ciberseguridad nunca deben propagarse más allá de un titular. Mantenga las amenazas alejadas de sus dispositivos descargando Malwarebytes hoy mismo.




