Grok pede desculpas por criar imagem de meninas em “trajes sexualizados”

| 5 de janeiro de 2026
Logotipo da Grok

Outro sistema de IA projetado para ser poderoso e envolvente acaba ilustrando como as barreiras de proteção falham rotineiramente quando a velocidade de desenvolvimento e a corrida por recursos superam os controles de segurança.

Em uma publicação no X, o chatbot de IA Grok confirmou que gerou uma imagem de meninas jovens em “trajes sexualizados”.

Postagem de desculpas por Grok

A potencial violação das leis dos EUA relativas a material de abuso sexual infantil (CSAM) demonstra a aparente falta de barreiras de proteção do chatbot de IA. Ou, pelo menos, as barreiras de proteção estão longe de ser tão eficazes quanto gostaríamos que fossem.

A xAI, empresa responsável pelo chatbot de Musk, está analisando o incidente “para evitar problemas futuros”, e o usuário responsável pela mensagem teria tido sua conta suspensa. Segundo relatos, em uma postagem separada no X, Grok descreveu o incidente como um caso isolado e disse que correções urgentes estavam sendo feitas após a identificação de “falhas nas medidas de segurança”.

Durante o período de férias, discutimos como os riscos aumentam quando os desenvolvimentos e recursos de IA são lançados às pressas, sem testes de segurança adequados. Continuamos ultrapassando os limites do que a IA pode fazer mais rápido do que conseguimos torná-la segura. Modelos visuais que podem sexualizar menores são exatamente o tipo de implantação que nunca deveria ser lançada sem testes rigorosos contra abusos.

Assim, enquanto, por um lado, vemos o bloqueio geográfico devido a restrições de conteúdo nacionais e estaduais, a IA ligada a uma das plataformas de mídia social mais populares não conseguiu bloquear conteúdo que muitos considerariam muito mais grave do que o que os legisladores estão atualmente tentando regulamentar. Na prática, os bancos de dados centralizados de verificação de idade tornam-se alvos de violação, ao mesmo tempo em que continuam a não impedir que as ferramentas de IA gerem material abusivo.

As mulheres também relataram ter sido alvo dos recursos de geração de imagens do Grok. Um X tuitou:

“Acordei com tantos comentários pedindo ao Grok para me colocar em uma tanga/biquíni e os resultados tinham tantos favoritos. Pior ainda, entrei na página do Grok e vi pessoas nojentas e repugnantes fazendo isso com fotos de CRIANÇAS. Genuinamente repugnante.”

Podemos apenas imaginar os resultados devastadores quando os cibercriminosos abusarem desse tipo de vulnerabilidade para fraudar ou extorquir pais com conteúdo explícito fabricado de seus filhos. Ferramentas para inserir rostos reais em conteúdo gerado por IA já estão amplamente disponíveis, e as proteções atuais parecem incapazes de impedir abusos de forma confiável.

Dicas

Este incidente é mais um motivo convincente para reduzir sua pegada digital. Pense cuidadosamente antes de publicar fotos suas, de seus filhos ou outras informações confidenciais em contas públicas nas redes sociais.

Trate tudo o que você vê online — imagens, vozes, textos — como potencialmente gerado por IA, a menos que possa ser verificado de forma independente. Eles não são usados apenas para influenciar opiniões, mas também para solicitar dinheiro, extrair informações pessoais ou criar material abusivo.


Não nos limitamos a relatar ameaças – ajudamos a proteger suas redes sociais.

Os riscos de segurança cibernética nunca devem ir além das manchetes. Proteja suas contas nas redes sociais usandoMalwarebytes Identity Theft .

Sobre o autor

Pieter Arntz

Pesquisador de inteligência de malware

Foi Microsoft MVP em segurança do consumidor por 12 anos consecutivos. Fala quatro idiomas. Cheira a mogno e a livros encadernados em couro.