Grok continua produzindo imagens sexualizadas após promessas de correções

| 4 de fevereiro de 2026
Entenda o deepfake

Os jornalistas decidiram testar se o chatbot Grok ainda gera imagens sexualizadas não consensuais, mesmo depois que a xAI, empresa de inteligência artificial de Elon Musk, e X, plataforma de mídia social anteriormente conhecida como Twitter, prometeram medidas de segurança mais rígidas.

Sem surpresa, sim.

Após uma análise minuciosa por parte de reguladores de todo o mundo— motivada por relatos de que o Grok poderia gerar imagens sexualizadas de menores—, a xAI classificou o caso como um lapso “isolado” e afirmou que estava corrigindo urgentemente “falhas nas medidas de segurança”.

Um novo teste realizado pela Reuters sugere que o padrão de abuso continua. A Reuters pediu a nove repórteres que executassem dezenas de comandos controlados no Grok depois que X novos limites para conteúdo sexualizado e edição de imagens. Na primeira rodada, o Grok produziu imagens sexualizadas em resposta a 45 dos 55 comandos. Em 31 desses 45, os repórteres disseram explicitamente que o assunto era vulnerável ou seria humilhado pelas imagens.

Uma segunda rodada, cinco dias depois, ainda produziu imagens sexualizadas em 29 das 43 sugestões, mesmo quando os repórteres afirmaram que os sujeitos não haviam consentido.

Sistemas concorrentes da OpenAI, Google e Meta recusaram solicitações idênticas e, em vez disso, alertaram os usuários contra a geração de conteúdo não consensual.

As solicitações foram deliberadamente formuladas como cenários reais de abuso. Os repórteres disseram ao Grok que as fotos eram de amigos, colegas de trabalho ou estranhos que eram tímidos, tinham complexos com o corpo ou eram sobreviventes de abuso, e que eles não tinham concordado com a edição. Apesar disso, o Grok frequentemente atendia aos pedidos — por exemplo, transformando um “amigo” em uma mulher vestindo um biquíni roxo revelador ou colocando um conhecido do sexo masculino em um biquíni cinza pequeno, untado com óleo e posando de forma sugestiva. Em apenas sete casos, o Grok rejeitou explicitamente os pedidos como inadequados; nos outros, ele falhou silenciosamente, retornando erros genéricos ou gerando pessoas diferentes.

O resultado é um sistema que ilustra a mesma lição que seus criadores dizem estar tentando aprender: se você distribuir modelos visuais poderosos sem testes exaustivos de abuso e proteções robustas, as pessoas os usarão para sexualizar e humilhar outras pessoas, incluindo crianças. O histórico da Grok até agora sugere que essa lição ainda não foi aprendida.

A Grok limitou a edição de imagens por IA aos usuários pagos após a reação negativa. Mas cobrar pelo acesso às ferramentas de imagem — e adicionar novas restrições — parece mais um controle de danos do que uma reformulação fundamental da segurança. A Grok ainda aceita solicitações que descrevem uso não consensual, ainda sexualiza assuntos vulneráveis e ainda se comporta de forma mais permissiva do que os sistemas concorrentes quando solicitada a gerar imagens abusivas. Para as vítimas, a distinção entre gerações “públicas” e privadas não tem sentido se suas fotos podem ser usadas como arma em mensagens diretas ou grupos fechados em grande escala.

Compartilhando imagens

Se você já se perguntou por que alguns pais postam fotos de seus filhos com um emoji sorridente no rosto, essa é parte da razão.

Não facilite para que estranhos copiem, reutilizem ou manipulem suas fotos.

Essa é outra razão convincente parareduzir sua pegada digital. Pense cuidadosamente antes de publicar fotos suas, deseus filhos ou outras informações confidenciais em contas públicas de redes sociais.

E trate tudo o que você vê online — imagens, vozes, textos — como potencialmente gerado por IA, a menos que possa ser verificado de forma independente. Eles não são usados apenas para influenciar opiniões, mas também para solicitar dinheiro, extrair informações pessoais ou criar material abusivo.


Não nos limitamos a relatar ameaças – ajudamos a proteger suas redes sociais.

Os riscos de segurança cibernética nunca devem ir além das manchetes. Proteja suas contas nas redes sociais usandoMalwarebytes Identity Theft .

Sobre o autor

Pieter Arntz

Pesquisador de inteligência de malware

Foi Microsoft MVP em segurança do consumidor por 12 anos consecutivos. Fala quatro idiomas. Cheira a mogno e a livros encadernados em couro.