Este blog faz parte de uma série em que destacamos ameaças novas ou em rápida evolução na segurança do consumidor. Este artigo enfoca como a IA está a ser usada para criar campanhas mais realistas, acelerar a engenharia social e como os agentes de IA podem ser usados para visar indivíduos.
A maioria dos cibercriminosos mantém o que funciona. Mas, assim que um novo método se mostra eficaz, ele se espalha rapidamente — e novas tendências e tipos de campanhas surgem.
Em 2025, o rápido desenvolvimento da Inteligência Artificial(IA) e a sua utilização no cibercrime andaram de mãos dadas. Em geral, a IA permite aos criminosos melhorar a escala, a velocidade e a personalização da engenharia social através de texto, voz e vídeo realistas. As vítimas enfrentam não só perdas financeiras, mas também a erosão da confiança na comunicação digital e nas instituições.
Engenharia social
Clonagem de voz
Uma das principais áreas em que a IA melhorou foi na clonagem de voz, que foi imediatamente adotada por golpistas. No passado, eles costumavam se limitar a se passar por amigos e parentes. Em 2025, eles chegaram ao ponto de se passar por altos funcionários dos EUA. Os alvos eram predominantemente funcionários atuais ou ex-funcionários do governo federal ou estadual dos EUA e seus contatos.
No decorrer dessas campanhas, os cibercriminosos utilizaram mensagens de teste, bem como mensagens de voz geradas por IA. Ao mesmo tempo, eles não abandonaram o ângulo da família em dificuldades. Uma mulher na Flórida foi enganada e entregou milhares de dólares a um burlão depois que a voz da sua filha foi clonada por IA e usada num esquema fraudulento.
agentes de IA
IA agênica é o termo usado para agentes de IA individualizados, projetados para realizar tarefas de forma autónoma. Uma dessas tarefas pode ser pesquisar informações disponíveis publicamente ou roubadas sobre um indivíduo e usar essas informações para criar uma isca de phishing muito convincente.
Esses agentes também poderiam ser usados para extorquir as vítimas, combinando dados roubados com endereços de e-mail ou contas de redes sociais conhecidos publicamente, redigindo mensagens e mantendo conversas com pessoas que acreditam que um invasor humano tem acesso direto ao seu número de segurança social, endereço físico, detalhes de cartão de crédito e muito mais.
Outra utilização que vemos com frequência é a descoberta de vulnerabilidades assistida por IA. Estas ferramentas são utilizadas tanto por atacantes como por defensores. Por exemplo, a Google utiliza um projeto chamado Big Sleep, que encontrou várias vulnerabilidades no Chrome .
Redes sociais
Conforme mencionado na secção sobre agentes de IA, combinar dados publicados nas redes sociais com dados roubados durante violações é uma tática comum. Esses dados fornecidos livremente também são um terreno fértil para golpes românticos, sextorsão e golpes de férias.
As plataformas de redes sociais também são amplamente utilizadas para vender produtos falsificados, desinformação gerada por IA, mercadorias perigosas e mercadorias enviadas diretamente do fabricante.
Injeção imediata
E depois há as vulnerabilidades em plataformas públicas de IA, como ChatGPT, Perplexity, Claude e muitas outras. Investigadores e criminosos continuam a explorar formas de contornar as salvaguardas destinadas a limitar o uso indevido.
Injeção de prompt é o termo geral usado quando alguém insere uma entrada cuidadosamente elaborada, na forma de uma conversa ou dados comuns, para induzir ou forçar uma IA a fazer algo que não deveria fazer.
Campanhas de malware
Em alguns casos, os atacantes utilizaram plataformas de IA para criar e espalhar malware. Os investigadores documentaram campanhas em que os atacantes utilizaram a IA Claude para automatizar todo o ciclo de vida do ataque, desde a invasão inicial do sistema até à geração de notas de resgate, visando setores como o governo, a saúde e os serviços de emergência.
Desde o início de 2024, a OpenAI afirma ter interrompido mais de 20 campanhas em todo o mundo que tentavam abusar da sua plataforma de IA para operações criminosas e campanhas enganosas.
Olhando para o futuro
A IA está a ampliar as capacidades tanto dos defensores quanto dos atacantes. As equipas de segurança podem usá-la para automatizar a deteção, identificar padrões mais rapidamente e dimensionar a proteção. Os cibercriminosos, por sua vez, estão a usá-la para aprimorar a engenharia social, descobrir vulnerabilidades mais rapidamente e criar campanhas completas com o mínimo de esforço.
Olhando para 2026, a maior mudança pode não ser técnica, mas psicológica. À medida que o conteúdo gerado por IA se torna mais difícil de distinguir do real, verificar vozes, mensagens e identidades será mais importante do que nunca.
Não nos limitamos a comunicar as ameaças - eliminamo-las
Os riscos de cibersegurança nunca se devem propagar para além de uma manchete. Mantenha as ameaças longe dos seus dispositivos descarregando Malwarebytes hoje mesmo.




