Os complexos de burlas no Sudeste Asiático já se tornaram verdadeiras fazendas de escravidão modernas, aprisionando as vítimas e obrigando muitas delas a tornarem-se burlões para o seu próprio benefício. Agora, acrescentaram outro tipo de trabalhador ao grupo: os chamados modelos de IA.
Estes burlões profissionais realizam videochamadas com as suas vítimas, seduzindo-as para que lhes entreguem o seu dinheiro. Conformenoticiado na WIREDesta semana, os anúncios de recrutamento descrevem funções que envolvem cerca de uma centena de videochamadas ao vivo por dia, promovendo esquemas de burla romântica e esquemas relacionados com criptomoedas em operações de burla à escala industrial no Camboja, em Mianmar e no Laos.
Estas «fazendas» de burlas já recorrem a operadores de chat para atrair as vítimas através de aplicações de mensagens. Muitos destes operadores são, eles próprios, vítimas de tráfico humano, obrigados a trabalhar em turnos longos sob ameaças de violência. Ao longo do tempo, estabelecem relações com as vítimas, explorando a sua solidão ou as suas preocupações financeiras. Enquanto se esforçam por fazer com que a vítima se sinta especial, na realidade estão a gerir conversas semelhantes com dezenas de pessoas ao mesmo tempo. Eventualmente, uma vítima pode querer uma videochamada, seja para conhecer o seu suposto amor ou para confirmar se uma oportunidade de investimento é legítima (ou ambos).
Os operadores de chat podem não ter a capacidade de cativar as vítimas por vídeo, especialmentequando eles próprios são vítimas, sendo obrigados a trabalhar em turnos longos e sofrendo agressões físicas. Assim, quando uma vítima pede uma videochamada, os chefes do esquema recorrem a um «modelo de IA» especializado, com fortes competências interpessoais, para cativar a vítima. Apesar do nome, trata-se de pessoas reais contratadas para aparecer nas videochamadas. O deepfake de IA ajusta a sua aparência para corresponder à pessoa fictícia que a vítima espera ver.
As redes fraudulentas publicam anúncios de recrutamento para estas modelos, e muitas parecem dispostas a candidatar-se a estes empregos. A Humanity Research Consultancy, um grupo de investigação que acompanha as cadeias de abastecimento do tráfico de pessoas,identificouum anúncio publicado por uma uzbeque de 24 anos que se autodenomina Angel. Ela afirmava falar quatro línguas e ter um ano de experiência como modelo de IA. Exigia 7 000 dólares mensais pelos seus serviços.
O aumento dos esquemas fraudulentos
Como é que estes complexos dedicados à fraude chegam a existir?De acordo como Instituto Australiano de Política Estratégica, o golpe militar de 2021 em Mianmar contribuiu para alimentar um boom da fraude. Os centros de fraude ao longo da fronteira com a Tailândiamais do que duplicaramà medida que os sindicatos do crime se instalaram nessa região, bem como em Mianmar, no Camboja e no Laos.
Estes centros de burlas são frequentemente tolerados porque enchem os cofres das milícias locais. No entanto, têm sido tomadas algumas medidas de combate. As rusgas e as operações transfronteiriças de repressão conduziram a detenções e à transferência de um grande número de suspeitos entre países, incluindo operações que visaram complexos como o KK Park, em Myawaddy. O Camboja e Mianmar também sinalizaram um aumento dos esforços para combater as operações de burla, embora as redes continuem a revelar-se altamente resistentes.
Este tipo de atividade torna-se mais fácil à medida que a tecnologia avança. deepfake de troca de rostos em tempo real e deepfake são agora suficientemente avançadas para funcionar com vídeos ao vivo, e não apenas com vídeos pré-gravados. Já vimos deepfakes em tempo real deepfakes para tudo, desdeentrevistas de empregoaté àfalsificação de identidade de executivos bancários para burlar milhões. A novidade aqui é a escala: pessoas a lidar com dezenas ou mesmo centenas de chamadas por dia para burlas românticas e fraudes de investimento em criptomoedas mostram que isto é agora uma exploração em massa.
Como manter-se em segurança
Eis o problema dos deepfake : os «indícios» comuns que permitem identificá-los estão a desaparecer. Antigamente, um sinal claro de um deepfake gerado por IA deepfake alguém com um número errado de dedos ou anomalias na linha do cabelo. Pode aumentar a dificuldade nas chamadas ao vivo pedindo a alguém para se virar de lado. Peça-lhe para tocar no nariz e acenar com os dedos à frente do rosto. É mais difícil paradeepfake lidar com esse ruído adicional.
Mas atenção: os algoritmos que produzem deepfakes cada vez melhores e conseguem contornar esses testes com maior facilidade. Chegámos a um ponto em que, segundo estedeepfake , muitos mais de nós serão enganados por eles este ano.
Se não conseguir confiar totalmente no que vê, baseie-se no que sabe. Desconfie de contactos não solicitados, especialmente quando alguém estabelece rapidamente uma ligação emocional ou apresenta uma oportunidade de investimento. Mesmo que um perfil pareça bem estabelecido ou um site pareça legítimo, reserve algum tempo para investigar um pouco mais a fundo.
Evite partilhar informações pessoais ou financeiras com alguém que só conheceu online e tenha cuidado com quem o pressiona a tomar decisões precipitadas ou lhe pede para transferir as conversas para fora das plataformas habituais. O FBI disponibiliza alguns conselhos úteis no seu site.
O aspeto mais perigoso desta tendência dos modelosdeepfake é que ajuda as operações fraudulentas a ultrapassar a última barreira. Um ser humano real consegue impedir um esquema fraudulento que uma simples interação por chat não consegue. É por isso que pessoas como a Angel, do Uzbequistão, têm emprego, e é por isso que é preciso estar mais atento do que nunca.
Não nos limitamos a informar sobre as burlas - ajudamos a detectá-las
Os riscos de cibersegurança nunca devem ir além de uma manchete. Se algo lhe parecer suspeito, verifique se é uma fraude usando Malwarebytes Guard. Envie uma captura de ecrã, cole o conteúdo suspeito ou partilhe um link, texto ou número de telefone, e nós informaremos se é uma fraude ou se é legítimo. Disponível com Premium Malwarebytes Premium para todos os seus dispositivos e no Malwarebytes para iOS Android.




