Las estafas se intensifican con la contratación de «modelos de IA» para cerrar el trato en deepfake

| 24 de marzo de 2026
Modelo de Deepfake

Los centros de estafas del sudeste asiático ya se han convertido en auténticas granjas de esclavos modernos, donde se atrapa a las víctimas y se obliga a muchas de ellas a convertirse en estafadores para la propia organización. Ahora han incorporado otro tipo de «trabajador» a la ecuación: los denominados «modelos de IA».

Estos estafadores profesionales realizan videollamadas con sus víctimas y las seducen para que les entreguen su dinero. Segúninforma WIREDesta semana, los anunciosdecontratación describen puestos en los que hay que gestionar alrededor de un centenar de videollamadas al día, promoviendo estafas románticas y estafas relacionadas con las criptomonedas en operaciones fraudulentas a escala industrial en Camboya, Myanmar y Laos. 

Estas «granjas de estafas» ya cuentan con operadores de chat para atrapar a sus víctimas a través de aplicaciones de mensajería. Muchos de estos operadores son a su vez víctimas de la trata de personas, obligados a trabajar en turnos largos bajo amenazas de violencia. Con el tiempo, establecen relaciones con las víctimas, aprovechándose de su soledad o de sus preocupaciones económicas. Aunque se esfuerzan por hacer que la víctima se sienta especial, en realidad están gestionando conversaciones similares con decenas de personas a la vez. Con el tiempo, es posible que la víctima quiera hacer una videollamada, ya sea para conocer a su supuesto amor o para confirmar que una oportunidad de inversión es legítima (o ambas cosas). 

Es posible que los operadores de chat no tengan la capacidad de cautivar a las víctimas por videollamada, sobre todocuando ellos mismos son víctimas, se les obliga a trabajar turnos largos y sufren agresiones físicas.  Por eso, cuando una víctima solicita una videollamada, los jefes de la estafa recurren a un «modelo de IA» especializado con grandes habilidades interpersonales para cautivar a la víctima. A pesar del nombre, se trata de personas reales contratadas para aparecer en las videollamadas. El deepfake de IA ajusta su aspecto para que coincida con la persona ficticia que la víctima espera ver. 

Las redes fraudulentas publican anuncios de contratación para estas modelos, y muchas parecen dispuestas a solicitar estos puestos de trabajo. Humanity Research Consultancy, un grupo de investigación que rastrea las cadenas de suministro de la trata de personas,identificóun anuncio de una uzbeka de 24 años que se hacía llamar Angel. Afirmaba hablar cuatro idiomas y tener un año de experiencia como modelo de IA. Pedía 7.000 dólares al mes por sus servicios. 

El aumento de los casos de estafa 

¿Cómo es posible que existan estos centros de estafas?Según elInstituto AustralianodePolítica Estratégica, el golpe militar de 2021 en Myanmar contribuyó a avivar un auge de las estafas. Los centros de estafas situados a lo largo de la frontera tailandesa se hanmás que duplicadoa medida que las organizaciones criminales se han ido instalando en esa región, así como en Myanmar, Camboya y Laos. 

A menudo se tolera la existencia de estos centros de estafas porque llenan las arcas de las milicias locales. Sin embargo, se han tomado algunas medidas para combatirlos. Las redadas y las operaciones transfronterizas han dado lugar a detenciones y al traslado de un gran número de sospechosos entre países, incluidas operaciones dirigidas contra complejos como el KK Park en Myawaddy. Camboya y Myanmar también han anunciado que intensificarán sus esfuerzos para hacer frente a las operaciones de estafa, aunque las redes siguen mostrando una gran capacidad de resistencia.

Este tipo de actividades se vuelven más fáciles a medida que avanza la tecnología. deepfake de intercambio de rostros en tiempo real y deepfake ya son lo suficientemente buenas como para funcionar con vídeos en directo, y no solo con clips pregrabados. Ya hemos visto deepfakes en tiempo real deepfakes para todo, desdeentrevistas de trabajohastasuplantar a ejecutivos bancarios para estafar millones. Lo nuevo aquí es la magnitud: el hecho de que haya personas gestionando decenas o incluso cientos de llamadas al día para estafas románticas y fraudes de inversión en criptomonedas demuestra que ahora se trata de una explotación masiva. 

Cómo mantenerse a salvo 

Este es el problema de deepfake : los «indicios» habituales que permiten detectarlos están desapareciendo. Antes, una señal inequívoca de un deepfake generado por IA deepfake alguien tuviera un número incorrecto de dedos o anomalías en la línea del cabello. Puedes subir el listón en las llamadas en directo pidiendo a la persona que se gire de lado. Pídele que se toque la nariz y que mueva los dedos delante de la cara. Aldeepfake le resulta más difícil procesar ese ruido adicional. 

Pero cuidado: los algoritmos que generan deepfakes constantemente y deepfakes cada vez más capaces de superar estas pruebas. Nos encontramos en un punto en el que, según estedeepfake , este año muchos más de nosotros caeremos en la trampa. 

Si no puedes confiar plenamente en lo que ves, fíate de lo que sabes. Desconfía de los contactos no solicitados, sobre todo cuando alguien establece rápidamente una conexión emocional o te propone una oportunidad de inversión. Aunque un perfil parezca fiable o una página web parezca legítima, tómate tu tiempo para investigar un poco más a fondo.

Evita compartir información personal o financiera con alguien a quien solo conozcas por Internet, y desconfía de cualquiera que te presione para que tomes decisiones precipitadas o te pida que traslades la conversación fuera de las plataformas habituales. El FBI ofrece algunos consejos útiles en su página web

Lo más peligroso de esta tendencia de los modelosdeepfake es que ayuda a las estafas a traspasar la última barrera. Una persona real puede frustrar una estafa que una simple conversación por chat no puede. Por eso hay personas como Angel, de Uzbekistán, que tienen trabajo, y por eso debes estar más alerta que nunca. 


No sólo informamos de las estafas, sino que ayudamos a detectarlas.

Los riesgos de ciberseguridad nunca deben ir más allá de un titular. Si algo te parece sospechoso, comprueba si se trata de una estafa con Malwarebytes Guard. Envía una captura de pantalla, pega el contenido sospechoso o comparte un enlace, texto o número de teléfono, y te diremos si se trata de una estafa o es legítimo. Disponible con Malwarebytes Premium para todos tus dispositivos y en la Malwarebytes para iOS Android.

Acerca del autor

Danny Bradbury es periodista especializado en tecnología desde 1989 y escritor independiente desde 1994. Cubre una amplia variedad de temas tecnológicos para públicos que van desde los consumidores hasta los desarrolladores de software y los directores de sistemas de información. También escribe artículos para muchos directivos del sector tecnológico. Es originario del Reino Unido, pero ahora vive en el oeste de Canadá.