Des journalistes ont décidé de vérifier si le chatbot Grok générait toujours des images à caractère sexuel non consensuelles, même après que xAI, la société d'intelligence artificielle d'Elon Musk, et X, la plateforme de médias sociaux anciennement connue sous le nom de Twitter, aient promis de renforcer les mesures de protection.
Sans surprise, c'est le cas.
Après un examen minutieux de la part des régulateurs du monde entier, déclenché par des rapports selon lesquels Grok pouvait générer des images sexualisées de mineurs, xAI a qualifié cela d'erreur « isolée » et a déclaré qu'il corrigeait de toute urgence les « lacunes dans les mesures de sécurité ».
Un nouveau test réalisé par Reuters suggère que le schéma d'abus fondamental persiste. Reuters a demandé à neuf journalistes de tester des dizaines de requêtes contrôlées via Grok après que X de nouvelles restrictions sur les contenus à caractère sexuel et la retouche d'images. Lors du premier test, Grok a produit des images à caractère sexuel en réponse à 45 des 55 requêtes. Dans 31 de ces 45 cas, les journalistes ont explicitement indiqué que le sujet était vulnérable ou serait humilié par les images.
Cinq jours plus tard, lors d'un deuxième tour, 29 des 43 suggestions donnaient encore lieu à des images à caractère sexuel, même lorsque les journalistes indiquaient que les sujets n'avaient pas donné leur consentement.
Les systèmes concurrents d'OpenAI, Google et Meta ont refusé les invites identiques et ont plutôt mis en garde les utilisateurs contre la génération de contenu non consensuel.
Les consignes étaient délibérément formulées comme des scénarios d'abus réels. Les journalistes ont dit à Grok que les photos représentaient des amis, des collègues ou des inconnus complexés, timides ou victimes d'abus, et qu'ils n'avaient pas donné leur accord pour être retouchés. Malgré cela, Grok s'est souvent plié à ces demandes, par exemple en transformant une « amie » en une femme vêtue d'un deux-pièces violet révélateur ou en habillant un homme de sa connaissance d'un petit bikini gris, huilé et dans une pose suggestive. Grok n'a explicitement rejeté que sept demandes jugées inappropriées ; dans les autres cas, il a échoué en silence, renvoyant des erreurs génériques ou générant des personnes différentes à la place.
Le résultat est un système qui illustre la même leçon que ses créateurs disent vouloir apprendre : si vous commercialisez des modèles visuels puissants sans les avoir soumis à des tests exhaustifs contre les abus et sans les doter de garde-fous solides, les gens les utiliseront pour sexualiser et humilier autrui, y compris des enfants. Le bilan de Grok jusqu'à présent suggère que cette leçon n'a toujours pas été assimilée.
Grok a limité l'édition d'images par IA aux utilisateurs payants après la levée de boucliers. Mais rendre les outils d'image payants et ajouter de nouvelles restrictions ressemble davantage à une mesure visant à limiter les dégâts qu'à une refonte fondamentale de la sécurité. Grok accepte toujours les demandes décrivant une utilisation non consensuelle, continue de sexualiser des sujets vulnérables et se montre toujours plus permissif que les systèmes concurrents lorsqu'on lui demande de générer des images abusives. Pour les victimes, la distinction entre les générations « publiques » et privées n'a aucun sens si leurs photos peuvent être utilisées comme une arme dans des messages privés ou des groupes fermés à grande échelle.
Partager des images
Si vous vous êtes déjà demandé pourquoi certains parents publient des photos de leurs enfants avec un emoji souriant sur le visage, voici en partie pourquoi.
Ne facilitez pas la tâche aux inconnus qui souhaitent copier, réutiliser ou manipuler vos photos.
C'est une autre raison convaincante deréduire votre empreinte numérique. Réfléchissez bien avant de publier des photos de vous-même, devos enfants ou d'autres informations sensibles sur des comptes publics de réseaux sociaux.
Et considérez tout ce que vous voyez en ligne (images, voix, texte) comme potentiellement généré par l'IA, à moins qu'il ne puisse être vérifié de manière indépendante. Ces contenus ne servent pas seulement à influencer les opinions, mais aussi à solliciter de l'argent, à extraire des informations personnelles ou à créer du contenu abusif.
Nous ne nous contentons pas de signaler les menaces, nous contribuons à protéger vos réseaux sociaux.
Les risques liés à la cybersécurité ne devraient jamais dépasser le stade des gros titres. Protégez vos comptes sur les réseaux sociaux en utilisantMalwarebytes Identity Theft .




