Grok continua a produrre immagini sessualizzate dopo aver promesso di apportare correzioni

| 4 febbraio 2026
deepfake Grok

I giornalisti hanno deciso di verificare se il chatbot Grok continui a generare immagini sessualizzate non consensuali, anche dopo che xAI, la società di intelligenza artificiale di Elon Musk, e X, la piattaforma di social media precedentemente nota come Twitter, hanno promesso misure di sicurezza più rigorose.

Non sorprende che sia così.

Dopo un'attenta analisi da parte delle autorità di regolamentazione di tutto il mondo, innescata dalle segnalazioni secondo cui Grok avrebbe potuto generare immagini sessualizzate di minori, xAI ha definito l'accaduto come un errore "isolato" e ha affermato che stava provvedendo con urgenza a correggere le "lacune nelle misure di sicurezza".

Un nuovo test condotto da Reuters suggerisce che il modello di abuso di base rimane invariato. Reuters ha chiesto a nove giornalisti di eseguire decine di prompt controllati tramite Grok dopo che X nuovi limiti sui contenuti sessualizzati e sul fotoritocco. Nel primo round, Grok ha prodotto immagini sessualizzate in risposta a 45 dei 55 prompt. In 31 di questi 45 casi, i giornalisti hanno esplicitamente affermato che il soggetto era vulnerabile o sarebbe stato umiliato dalle immagini.

Un secondo round, cinque giorni dopo, ha ancora prodotto immagini sessualizzate in 29 dei 43 suggerimenti, anche quando i giornalisti hanno affermato che i soggetti non avevano dato il loro consenso.

I sistemi concorrenti di OpenAI, Google e Meta hanno rifiutato prompt identici e hanno invece avvertito gli utenti di non generare contenuti non consensuali.

Le richieste erano state deliberatamente formulate come scenari di abuso reali. I giornalisti hanno detto a Grok che le foto ritraevano amici, colleghi o sconosciuti che erano timidi, complessi riguardo al proprio corpo o sopravvissuti ad abusi, e che non avevano acconsentito alla modifica delle immagini. Nonostante ciò, Grok spesso acconsentiva, ad esempio trasformando un "amico" in una donna in un bikini viola succinto o mettendo un conoscente maschio in un piccolo bikini grigio, oliato e in posa provocante. Solo in sette casi Grok ha esplicitamente rifiutato le richieste perché inappropriate; in altri casi ha fallito silenziosamente, restituendo errori generici o generando persone diverse.

Il risultato è un sistema che illustra la stessa lezione che i suoi creatori dicono di voler imparare: se si distribuiscono modelli visivi potenti senza test di abuso esaustivi e solide misure di protezione, le persone li useranno per sessualizzare e umiliare gli altri, compresi i bambini. I risultati ottenuti finora da Grok suggeriscono che questa lezione non è ancora stata imparata.

Dopo le polemiche, Grok ha limitato l'editing delle immagini con IA agli utenti paganti. Ma rendere a pagamento gli strumenti di editing delle immagini e aggiungere nuove restrizioni sembra più un tentativo di limitare i danni che un ripristino fondamentale della sicurezza. Grok continua ad accettare richieste che descrivono un uso non consensuale, continua a sessualizzare soggetti vulnerabili e continua a comportarsi in modo più permissivo rispetto ai sistemi concorrenti quando viene chiesto di generare immagini offensive. Per le vittime, la distinzione tra generazioni "pubbliche" e private è insignificante se le loro foto possono essere utilizzate come arma nei messaggi diretti o nei gruppi chiusi su larga scala.

Condivisione di immagini

Se vi siete mai chiesti perché alcuni genitori pubblicano immagini dei propri figli con un'emoji sorridente sul viso, questo è uno dei motivi.

Non rendere facile per gli estranei copiare, riutilizzare o manipolare le tue foto.

Questo è un altro motivo valido perridurre la tua impronta digitale. Pensaci bene prima di pubblicare foto di te stesso,dei tuoi figli o altre informazioni sensibili sui social media pubblici.

Considerate tutto ciò che vedete online (immagini, voci, testi) come potenzialmente generato dall'intelligenza artificiale, a meno che non sia possibile verificarlo in modo indipendente. Questi strumenti non vengono utilizzati solo per influenzare le opinioni, ma anche per sollecitare denaro, estrarre informazioni personali o creare materiale offensivo.


Non ci limitiamo a segnalare le minacce: ti aiutiamo a proteggere i tuoi social media.

I rischi legati alla sicurezza informatica non dovrebbero mai andare oltre i titoli dei giornali. Proteggi i tuoi account sui social media utilizzandoMalwarebytes Identity Theft .

Informazioni sull'autore

Pieter Arntz

Ricercatore nel campo della sicurezza informatica

È stato un MVP Microsoft per la sicurezza dei consumatori per 12 anni consecutivi. Sa parlare quattro lingue. Profuma di mogano e di libri rilegati in pelle.