Este blog faz parte de uma série em que destacamos ameaças novas ou em rápida evolução na segurança do consumidor. Este artigo enfoca como a IA está sendo usada para criar campanhas mais realistas, acelerar a engenharia social e como os agentes de IA podem ser usados para atingir indivíduos.
A maioria dos cibercriminosos mantém o que funciona. Mas, assim que um novo método se mostra eficaz, ele se espalha rapidamente — e novas tendências e tipos de campanhas surgem.
Em 2025, o rápido desenvolvimento da Inteligência Artificial(IA) e seu uso no crime cibernético andaram de mãos dadas. Em geral, a IA permite que os criminosos melhorem a escala, a velocidade e a personalização da engenharia social por meio de textos, vozes e vídeos realistas. As vítimas enfrentam não apenas perdas financeiras, mas também a erosão da confiança na comunicação digital e nas instituições.
Engenharia social
Clonagem de voz
Uma das principais áreas em que a IA melhorou foi na clonagem de voz, que foi imediatamente adotada por golpistas. No passado, eles se limitavam principalmente a se passar por amigos e parentes. Em 2025, chegaram ao ponto de se passar por altos funcionários dos EUA. Os alvos eram predominantemente funcionários atuais ou ex-funcionários do governo federal ou estadual dos EUA e seus contatos.
No decorrer dessas campanhas, os cibercriminosos utilizaram mensagens de teste, bem como mensagens de voz geradas por IA. Ao mesmo tempo, eles não abandonaram a abordagem da família em dificuldades. Uma mulher na Flórida foi enganada e entregou milhares de dólares a um golpista depois que a voz de sua filha foi clonada por IA e usada em um golpe.
agentes de IA
IA agênica é o termo usado para agentes de IA individualizados, projetados para realizar tarefas de forma autônoma. Uma dessas tarefas poderia ser pesquisar informações disponíveis publicamente ou roubadas sobre um indivíduo e usar essas informações para criar uma isca de phishing muito convincente.
Esses agentes também podem ser usados para extorquir vítimas, combinando dados roubados com endereços de e-mail ou contas de mídia social conhecidos publicamente, redigindo mensagens e mantendo conversas com pessoas que acreditam que um invasor humano tem acesso direto ao seu número de Seguro Social, endereço físico, detalhes de cartão de crédito e muito mais.
Outro uso que vemos com frequência é a descoberta de vulnerabilidades assistida por IA. Essas ferramentas são utilizadas tanto por invasores quanto por defensores. Por exemplo, o Google usa um projeto chamado Big Sleep, que encontrou várias vulnerabilidades no Chrome .
Mídia social
Conforme mencionado na seção sobre agentes de IA, combinar dados publicados nas redes sociais com dados roubados durante violações é uma tática comum. Esses dados fornecidos gratuitamente também são um terreno fértil para golpes românticos, sextorsão e golpes de férias.
As plataformas de mídia social também são amplamente utilizadas para vender produtos falsificados, desinformação gerada por IA, mercadorias perigosas e mercadorias enviadas diretamente do fabricante.
Injeção imediata
E depois há as vulnerabilidades nas plataformas públicas de IA, como ChatGPT, Perplexity, Claude e muitas outras. Tanto pesquisadores quanto criminosos ainda estão explorando maneiras de contornar as salvaguardas destinadas a limitar o uso indevido.
Injeção de prompt é o termo geral usado quando alguém insere uma entrada cuidadosamente elaborada, na forma de uma conversa ou dados comuns, para induzir ou forçar uma IA a fazer algo que não deveria fazer.
Campanhas de malware
Em alguns casos, os invasores utilizaram plataformas de IA para criar e espalhar malware. Pesquisadores documentaram campanhas em que os invasores utilizaram a IA Claude para automatizar todo o ciclo de vida do ataque, desde a invasão inicial do sistema até a geração de notas de resgate, visando setores como governo, saúde e serviços de emergência.
Desde o início de 2024, a OpenAI afirma ter interrompido mais de 20 campanhas em todo o mundo que tentavam abusar de sua plataforma de IA para operações criminosas e campanhas enganosas.
Olhando para o futuro
A IA está ampliando as capacidades tanto dos defensores quanto dos invasores. As equipes de segurança podem usá-la para automatizar a detecção, identificar padrões mais rapidamente e ampliar a proteção. Os cibercriminosos, por sua vez, estão usando-a para aprimorar a engenharia social, descobrir vulnerabilidades mais rapidamente e criar campanhas completas com o mínimo de esforço.
Olhando para 2026, a maior mudança pode não ser técnica, mas psicológica. À medida que o conteúdo gerado por IA se torna mais difícil de distinguir do real, verificar vozes, mensagens e identidades será mais importante do que nunca.
Não nos limitamos a informar sobre as ameaças, nós as removemos
Os riscos de segurança cibernética nunca devem se espalhar além de uma manchete. Mantenha as ameaças longe de seus dispositivos fazendo o download Malwarebytes hoje mesmo.




