Golpes se multiplicam com a contratação de “modelos de IA” para fechar negócios em deepfake

| 24 de março de 2026
Modelo de Deepfake

Os centros de golpes no Sudeste Asiático já se transformaram em verdadeiras fazendas de escravidão modernas, aprisionando as vítimas e forçando muitas delas a se tornarem golpistas para eles. Agora, acrescentaram outro tipo de trabalhador à equação: os chamados modelos de IA.

Esses golpistas profissionais realizam videochamadas com suas vítimas, seduzindo-as para que entreguem seu dinheiro. Conformerelatado pela WIREDnesta semana, anúncios de recrutamento descrevem funções que envolvem cerca de cem videochamadas ao vivo por dia, promovendo golpes românticos e esquemas envolvendo criptomoedas em operações fraudulentas em escala industrial no Camboja, Mianmar e Laos. 

Essas "fazendas de golpes" já contam com operadores de chat para atrair vítimas de golpes por meio de aplicativos de mensagens. Muitos desses operadores são, eles próprios, vítimas de tráfico humano, forçados a trabalhar em longos turnos sob ameaças de violência. Com o tempo, eles estabelecem relações com as vítimas, explorando sua solidão ou suas preocupações financeiras. Enquanto fazem de tudo para que a vítima se sinta especial, na verdade estão lidando com conversas semelhantes com dezenas de pessoas ao mesmo tempo. Eventualmente, a vítima pode querer fazer uma videochamada, seja para conhecer seu suposto namorado ou para confirmar se uma oportunidade de investimento é legítima (ou ambos). 

Os operadores de chat podem não ter a capacidade de cativar as vítimas por vídeo, especialmentequando eles próprios são vítimas, sendo obrigados a trabalhar em turnos longos e sofrendo agressões físicas.  Assim, quando uma vítima pede uma videochamada, os chefes do esquema recorrem a um “modelo de IA” especializado, com fortes habilidades interpessoais, para cativar a vítima. Apesar do nome, trata-se de pessoas reais contratadas para aparecer nas videochamadas. O deepfake de IA ajusta a aparência delas para corresponder à pessoa fictícia que a vítima espera ver. 

Grupos fraudulentos publicam anúncios de recrutamento para essas modelos, e muitas parecem dispostas a se candidatar a esses empregos. A Humanity Research Consultancy, um grupo de pesquisa investigativa que rastreia cadeias de abastecimento do tráfico humano,identificouum anúncio de uma uzbeque de 24 anos que se autodenomina Angel. Ela alegava falar quatro idiomas e ter um ano de experiência como modelo de IA. Ela exigia US$ 7.000 por mês por seus serviços. 

O aumento dos esquemas fraudulentos 

Como é que esses complexos dedicados a fraudes chegam a existir?De acordo como Instituto Australiano de Política Estratégica, o golpe militar de 2021 em Mianmar contribuiu para alimentar um boom de fraudes. Os centros de fraudes ao longo da fronteira com a Tailândiamais do que duplicaramà medida que organizações criminosas se instalam nessa região, bem como em Mianmar, no Camboja e no Laos. 

Esses centros de golpes são frequentemente tolerados porque enchem os cofres das milícias locais. No entanto, já foram tomadas algumas medidas. Batidas policiais e operações transfronteiriças resultaram em prisões e na transferência de um grande número de suspeitos entre países, incluindo operações que visaram complexos como o KK Park, em Myawaddy. O Camboja e Mianmar também sinalizaram um aumento nos esforços para combater as operações fraudulentas, embora as redes continuem sendo altamente resistentes.

Esse tipo de atividade fica mais fácil à medida que a tecnologia avança. deepfake de troca de rosto em tempo real e deepfake já são suficientemente avançadas para funcionar em vídeos ao vivo, e não apenas em clipes pré-gravados. Já vimos deepfakes em tempo real deepfakes para tudo, desdeentrevistas de empregoatéa falsificação de identidade de executivos bancários para aplicar golpes de milhões. A novidade aqui é a escala: pessoas lidando com dezenas ou até centenas de chamadas por dia para golpes românticos e fraudes de investimento em criptomoedas mostram que isso agora é uma exploração em massa. 

Como se manter seguro 

O problema com deepfake é o seguinte: os sinais reveladores que permitem identificá-los estão desaparecendo. Antigamente, um sinal claro de um deepfake gerado por IA deepfake alguém com um número errado de dedos ou peculiaridades na linha do cabelo. Você pode aumentar a dificuldade em chamadas ao vivo pedindo para a pessoa se virar de lado. Peça para ela tocar o nariz e acenar com os dedos na frente do rosto. É mais difícil paradeepfake lidar com esses detalhes adicionais. 

Mas atenção: os algoritmos que produzem deepfakes cada vez melhores e conseguem superar esses testes com mais facilidade. Chegamos a um ponto em que, segundo essedeepfake , muitos mais de nós serão enganados por eles este ano. 

Se você não puder confiar totalmente no que vê, baseie-se no que sabe. Desconfie de contatos não solicitados, especialmente quando alguém estabelece rapidamente uma conexão emocional ou apresenta uma oportunidade de investimento. Mesmo que um perfil pareça bem estabelecido ou um site pareça legítimo, reserve um tempo para investigar um pouco mais a fundo.

Evite compartilhar informações pessoais ou financeiras com alguém que você conheceu apenas pela internet e tenha cuidado com qualquer pessoa que tente pressioná-lo a tomar decisões precipitadas ou peça para transferir a conversa para fora das plataformas conhecidas. O FBI oferece alguns conselhos úteis em seu site

O aspecto mais perigoso dessa tendência de modelosdeepfake é que ela ajuda as operações fraudulentas a ultrapassar a última barreira. Um ser humano de verdade consegue impedir um golpe que uma simples interação por chat não consegue. É por isso que pessoas como Angel, do Uzbequistão, têm um emprego, e é por isso que você precisa estar mais atento do que nunca. 


Não nos limitamos a informar sobre fraudes - ajudamos a detectá-las

Os riscos de segurança cibernética nunca devem ir além de uma manchete. Se algo parecer suspeito para você, verifique se é uma fraude usando Malwarebytes Guard. Envie uma captura de tela, cole o conteúdo suspeito ou compartilhe um link, texto ou número de telefone, e nós informaremos se é uma fraude ou se é legítimo. Disponível com Premium Malwarebytes Premium para todos os seus dispositivos e no Malwarebytes para iOS Android.

Sobre o autor

Danny Bradbury é jornalista especializado em tecnologia desde 1989 e escritor freelancer desde 1994. Ele cobre uma ampla variedade de questões tecnológicas para públicos que vão desde consumidores até desenvolvedores de software e CIOs. Ele também escreve artigos para muitos executivos do setor de tecnologia. Ele é natural do Reino Unido, mas atualmente mora no oeste do Canadá.