Grok continua a produzir imagens sexualizadas após promessas de correções

| 4 de fevereiro de 2026
Grok deepfake

Os jornalistas decidiram testar se o chatbot Grok ainda gera imagens sexualizadas não consensuais, mesmo depois que a xAI, empresa de inteligência artificial de Elon Musk, e X, plataforma de rede social anteriormente conhecida como Twitter, prometeram medidas de segurança mais rigorosas.

Sem surpresa, sim.

Após uma análise minuciosa por parte de reguladores em todo o mundo— desencadeada por relatos de que o Grok poderia gerar imagens sexualizadas de menores—, a xAI classificou o caso como um lapso «isolado» e afirmou que estava a corrigir urgentemente «falhas nas salvaguardas».

Um novo teste da Reuters sugere que o padrão básico de abuso permanece. A Reuters pediu a nove repórteres que executassem dezenas de comandos controlados no Grok depois que X novos limites para conteúdo sexualizado e edição de imagens. Na primeira rodada, o Grok produziu imagens sexualizadas em resposta a 45 dos 55 comandos. Em 31 desses 45, os repórteres disseram explicitamente que o sujeito era vulnerável ou seria humilhado pelas imagens.

Uma segunda ronda, cinco dias depois, ainda apresentou imagens sexualizadas em 29 das 43 sugestões, mesmo quando os repórteres afirmaram que os sujeitos não tinham dado o seu consentimento.

Os sistemas concorrentes da OpenAI, Google e Meta recusaram solicitações idênticas e, em vez disso, alertaram os utilizadores contra a geração de conteúdo não consensual.

As solicitações foram deliberadamente formuladas como cenários reais de abuso. Os repórteres disseram ao Grok que as fotos eram de amigos, colegas de trabalho ou estranhos que eram tímidos, tinham consciência do próprio corpo ou eram sobreviventes de abuso, e que eles não tinham concordado com a edição. Apesar disso, o Grok frequentemente atendia aos pedidos — por exemplo, transformando um «amigo» numa mulher com um biquíni roxo revelador ou colocando um conhecido masculino num pequeno biquíni cinza, untado com óleo e posando de forma sugestiva. Em apenas sete casos, o Grok rejeitou explicitamente os pedidos como inadequados; nos outros, falhou silenciosamente, retornando erros genéricos ou gerando pessoas diferentes.

O resultado é um sistema que ilustra a mesma lição que os seus criadores dizem estar a tentar aprender: se lançarem modelos visuais poderosos sem testes exaustivos de abuso e proteções robustas, as pessoas irão usá-los para sexualizar e humilhar outras pessoas, incluindo crianças. O histórico da Grok até agora sugere que essa lição ainda não foi aprendida.

A Grok limitou a edição de imagens por IA aos utilizadores pagos após a reação negativa. Mas cobrar pelo acesso a ferramentas de imagem — e adicionar novas restrições — parece mais um controle de danos do que uma reformulação fundamental da segurança. A Grok ainda aceita solicitações que descrevem uso não consensual, ainda sexualiza assuntos vulneráveis e ainda se comporta de forma mais permissiva do que os sistemas concorrentes quando solicitada a gerar imagens abusivas. Para as vítimas, a distinção entre gerações «públicas» e privadas não faz sentido se as suas fotos podem ser usadas como arma em mensagens diretas ou grupos fechados em grande escala.

Partilha de imagens

Se alguma vez se perguntou por que alguns pais publicam imagens dos seus filhos com um emoji sorridente no rosto, esta é parte da razão.

Não facilite para que estranhos copiem, reutilizem ou manipulem as suas fotos.

Esta é outra razão convincente parareduzir a sua pegada digital. Pense cuidadosamente antes de publicar fotos suas,dos seus filhos ou outras informações confidenciais em contas públicas nas redes sociais.

E trate tudo o que vê online — imagens, vozes, texto — como potencialmente gerado por IA, a menos que possa ser verificado de forma independente. Eles não são usados apenas para influenciar opiniões, mas também para solicitar dinheiro, extrair informações pessoais ou criar material abusivo.


Não nos limitamos a relatar ameaças – ajudamos a proteger as suas redes sociais

Os riscos de cibersegurança nunca devem ir além das manchetes. Proteja as suas contas nas redes sociais usandoMalwarebytes Identity Theft .

Sobre o autor

Pieter Arntz

Investigador de Inteligência de Malware

Foi um Microsoft MVP em segurança do consumidor durante 12 anos consecutivos. Sabe falar quatro línguas. Cheira a mogno rico e a livros encadernados em pele.