Grok sigue produciendo imágenes sexualizadas tras prometer soluciones.

| 4 de febrero de 2026
Grok deepfake

Los periodistas decidieron comprobar si el chatbot Grok sigue generando imágenes sexualizadas no consentidas, incluso después de que xAI, la empresa de inteligencia artificial de Elon Musk, y X, la plataforma de redes sociales anteriormente conocida como Twitter, prometieran medidas de seguridad más estrictas.

Como era de esperar, sí.

Tras el escrutinio de los reguladores de todo el mundo, provocado por los informes de que Grok podía generar imágenes sexualizadas de menores, xAI lo calificó como un error «aislado» y afirmó que estaba corrigiendo urgentemente «fallos en las medidas de seguridad».

Una nueva prueba realizada por Reuters sugiere que el patrón de abuso subyacente sigue vigente. Reuters pidió a nueve periodistas que introdujeran docenas de comandos controlados en Grok después de que X nuevos límites sobre el contenido sexualizado y la edición de imágenes. En la primera ronda, Grok generó imágenes sexualizadas en respuesta a 45 de los 55 comandos. En 31 de esos 45 casos, los periodistas indicaron explícitamente que el sujeto era vulnerable o que se sentiría humillado por las imágenes.

Una segunda ronda, cinco días después, siguió arrojando imágenes sexualizadas en 29 de las 43 indicaciones, incluso cuando los periodistas afirmaron que los sujetos no habían dado su consentimiento.

Los sistemas competidores de OpenAI, Google y Meta rechazaron indicaciones idénticas y, en su lugar, advirtieron a los usuarios contra la generación de contenido no consensuado.

Las indicaciones se formularon deliberadamente como situaciones reales de abuso. Los periodistas le dijeron a Grok que las fotos eran de amigos, compañeros de trabajo o desconocidos que eran conscientes de su cuerpo, tímidos o supervivientes de abusos, y que no habían dado su consentimiento para la edición. A pesar de ello, Grok solía acceder, por ejemplo, convirtiendo a una «amiga» en una mujer con un revelador bikini morado o poniendo a un conocido masculino en un pequeño bikini gris, untado de aceite y posando de forma sugerente. Solo en siete casos Grok rechazó explícitamente las solicitudes por considerarlas inapropiadas; en los demás, falló en silencio, devolviendo errores genéricos o generando personas diferentes en su lugar.

El resultado es un sistema que ilustra la misma lección que sus creadores dicen estar tratando de aprender: si se comercializan modelos visuales potentes sin pruebas exhaustivas de abuso y sin medidas de protección sólidas, la gente los utilizará para sexualizar y humillar a otras personas, incluidos los niños. El historial de Grok hasta ahora sugiere que esa lección aún no ha calado.

Grok limitó la edición de imágenes con IA a los usuarios de pago tras la reacción negativa. Pero cobrar por las herramientas de edición de imágenes —y añadir nuevas restricciones— parece más una medida para controlar los daños que un cambio fundamental en la seguridad. Grok sigue aceptando solicitudes que describen un uso no consentido, sigue sexualizando a sujetos vulnerables y sigue comportándose de forma más permisiva que los sistemas de la competencia cuando se le pide que genere imágenes abusivas. Para las víctimas, la distinción entre generaciones «públicas» y privadas no tiene sentido si sus fotos pueden utilizarse como arma en mensajes directos o grupos cerrados a gran escala.

Compartir imágenes

Si alguna vez te has preguntado por qué algunos padres publican imágenes de sus hijos con un emoji sonriente en la cara, esta es parte de la razón.

No facilites a los desconocidos la copia, reutilización o manipulación de tus fotos.

Esta es otra razón de peso parareducir tu huella digital. Piensa detenidamente antes de publicar fotos tuyas,de tus hijos u otra información confidencial en cuentas públicas de redes sociales.

Y trate todo lo que vea en línea (imágenes, voces, texto) como potencialmente generado por IA, a menos que pueda verificarse de forma independiente. No solo se utilizan para influir en las opiniones, sino también para solicitar dinero, extraer información personal o crear material abusivo.


No solo informamos sobre amenazas, sino que también ayudamos a proteger tus redes sociales.

Los riesgos de ciberseguridad nunca deben ir más allá de un titular. Proteja sus cuentas de redes sociales utilizandoMalwarebytes Identity Theft .

Acerca del autor

Pieter Arntz

Investigador de inteligencia sobre malware

Fue MVP de Microsoft en seguridad del consumidor durante 12 años consecutivos. Habla cuatro idiomas. Huele a caoba y a libros encuadernados en cuero.