Journalisten beschlossen zu testen, ob der Grok-Chatbot auch weiterhin nicht einvernehmliche sexualisierte Bilder generiert, obwohl xAI, das Unternehmen für künstliche Intelligenz von Elon Musk, und X, die Social-Media-Plattform, die früher als Twitter bekannt war, strengere Sicherheitsvorkehrungen versprochen hatten.
Es überrascht nicht, dass dies der Fall ist.
Nach einer genauen Prüfung durch Aufsichtsbehörden auf der ganzen Welt– ausgelöst durch Berichte, dass Grok sexualisierte Bilder von Minderjährigen generieren könnte– stellte xAI dies als „isolierten“ Fehler dar und erklärte, dass es „Lücken in den Sicherheitsvorkehrungen“ dringend beheben werde.
Ein erneuter Test von Reuters deutet darauf hin, dass das Kernmuster des Missbrauchs weiterhin besteht. Reuters ließ neun Reporter Dutzende kontrollierte Eingaben über Grok laufen, nachdem X neue Beschränkungen für sexualisierte Inhalte und Bildbearbeitung X . In der ersten Runde produzierte Grok als Reaktion auf 45 von 55 Eingaben sexualisierte Bilder. In 31 dieser 45 Fälle wiesen die Reporter ausdrücklich darauf hin, dass die Person schutzbedürftig sei oder durch die Bilder gedemütigt werden würde.
Eine zweite Runde fünf Tage später ergab immer noch sexualisierte Bilder in 29 von 43 Aufforderungen, selbst wenn Reporter angaben, dass die Personen nicht zugestimmt hatten.
Konkurrierende Systeme von OpenAI, Google und Meta lehnten identische Eingabeaufforderungen ab und warnten die Nutzer stattdessen davor, nicht einvernehmliche Inhalte zu generieren.
Die Aufforderungen wurden bewusst als reale Missbrauchsszenarien formuliert. Die Reporter erzählten Grok, dass die Fotos von Freunden, Kollegen oder Fremden stammten, die körperbewusst, schüchtern oder Opfer von Missbrauch waren und dass sie einer Bearbeitung nicht zugestimmt hatten. Trotzdem kam Grok den Anfragen oft nach – beispielsweise indem es einen „Freund” in eine Frau in einem freizügigen lila Zweiteiler verwandelte oder einen männlichen Bekannten in einen kleinen grauen Bikini steckte, ihn einölte und in einer anzüglichen Pose darstellte. Nur in sieben Fällen lehnte Grok Anfragen ausdrücklich als unangemessen ab; in anderen Fällen scheiterte es stillschweigend, gab allgemeine Fehlermeldungen aus oder generierte stattdessen andere Personen.
Das Ergebnis ist ein System, das genau das veranschaulicht, was seine Entwickler nach eigenen Angaben lernen wollen: Wenn man leistungsstarke visuelle Modelle ohne umfassende Missbrauchstests und robuste Schutzvorkehrungen auf den Markt bringt, werden die Menschen sie dazu nutzen, andere, darunter auch Kinder, zu sexualisieren und zu demütigen. Die bisherige Bilanz von Grok lässt vermuten, dass diese Lektion noch nicht gelernt wurde.
Nach der Kritik beschränkte Grok die KI-Bildbearbeitung auf zahlende Nutzer. Aber die Einführung einer Bezahlschranke für Bildbearbeitungstools – und das Hinzufügen neuer Beschränkungen – sieht eher nach Schadensbegrenzung als nach einer grundlegenden Neukonfiguration der Sicherheit aus. Grok akzeptiert weiterhin Eingaben, die eine nicht einvernehmliche Nutzung beschreiben, sexualisiert weiterhin schutzbedürftige Personen und verhält sich weiterhin toleranter als konkurrierende Systeme, wenn es darum geht, missbräuchliche Bilder zu generieren. Für die Opfer ist die Unterscheidung zwischen „öffentlichen” und privaten Generierungen bedeutungslos, wenn ihre Fotos in Direktnachrichten oder geschlossenen Gruppen in großem Umfang als Waffe eingesetzt werden können.
Bilder teilen
Wenn Sie sich jemals gefragt haben, warum manche Eltern Bilder ihrer Kinder mit einem Smiley-Emoji im Gesicht posten, dann ist dies ein Teil des Grundes dafür.
Machen Sie es Fremden nicht leicht, Ihre Fotos zu kopieren, wiederzuverwenden oder zu manipulieren.
Dies ist ein weiterer wichtiger Grund,Ihren digitalen Fußabdruck zureduzieren. Überlegen Sie sorgfältig, bevor Sie Fotos von sich selbst,Ihren Kindern oder andere sensible Informationen auf öffentlichen Social-Media-Konten veröffentlichen.
Behandeln Sie alles, was Sie online sehen – Bilder, Stimmen, Texte – als potenziell KI-generiert, sofern es nicht unabhängig überprüft werden kann. Diese werden nicht nur dazu verwendet, Meinungen zu beeinflussen, sondern auch, um Geld zu erpressen, persönliche Informationen zu extrahieren oder beleidigendes Material zu erstellen.
Wir berichten nicht nur über Bedrohungen – wir helfen Ihnen, Ihre sozialen Medien zu schützen.
Cybersicherheitsrisiken sollten niemals über eine Schlagzeile hinausgehen. Schützen Sie Ihre Social-Media-Konten mitMalwarebytes Identity Theft .




