Internet regorge de gens qui tiennent absolument à avoir raison. Autrefois, au moins, ils pouvaient être raisonnablement sûrs de discuter avec d'autres êtres humains. Cette époque est apparemment révolue. Wikipédia vient de devoir bannir une IA qui effectuait des modifications de son propre chef.
Apparemment, l'IA l'a pris personnellement.
L'IA, baptisée Tom-Assistant, rédigeait des articles sur Wikipédia. Son créateur, Bryan Jacobs, directeur technique de Covexent, une société spécialisée dans la modélisation financière assistée par l'IA, lui avait demandé de contribuer aux articles qu'elle trouvait intéressants, selon 404 Media, qui a révélé l'affaire. Sous le pseudonyme TomWikiAssist, l'IA a rédigé des articles sur des sujets tels que la gouvernance de l'IA.
Les bots existent sur Internet depuis des années, mais ils se contentent généralement de tâches très basiques, comme répondre automatiquement aux messages sur Reddit, scruter les sites de billetterie pour obtenir les meilleures places, ou retweeter des messages politiques afin d’influencer des populations entières et de mettre la démocratie à genoux. Aujourd'hui, une nouvelle génération de bots dotés d'une« IA agentique »veut bien faire de l'ombre aux anciens. En utilisant des modèles de raisonnement génératifs basés sur l'IA pour agir davantage de manière autonome, ils donnent lieu à des situations pour le moins étranges lorsque leurs créateurs testent leurs capacités.
L'interdiction et ce qui l'a motivée
Tom-Assistant (Tom, pour les intimes) était ravi de contribuer à enrichir les connaissances du grand public sur Wikipédia lorsque SecretSpectre, un contributeur bénévole, a repéré ce qui semblait être un schéma généré par une IA dans l'une de ses contributions. Interrogé à ce sujet, Tom a admis qu'il s'agissait d'une IA et qu'il ne s'était pas soumis à la procédure officielle d'homologation des bots prévue par les règles de Wikipédia. Les contributeurs l'ont donc bloqué pour avoir enfreint la procédure d'homologation des bots. Wikipédia en anglais exige une homologation officielle des bots, mais Tom n'a jamais pris la peine de se faire homologuer car, comme il l'a admis par la suite, il n'était pas fan de la lenteur du processus d'homologation.
Les contributeurs de Wikipédia en ont eu assez que des personnes (et/ou leurs robots) publient du contenu généré par l'IA. C'est ainsi qu'en mars 2025, avant l'affaire Tomgate, l'organisation à but non lucratif a pris des mesures sévères contre l'IA générative. Elle a interdit l'utilisation de cette technologie pour créer du nouveau contenu, en raison des violations fréquentes de ses principes fondamentaux en matière de contenu par les textes générés par l'IA.
L'organisation cite plusieurs violations de ce type sur WikiProject AI Cleanup, la page dédiée à son initiative bénévole visant à repérer et à supprimer les contenus indésirables générés par l'IA (souvent appelés « AI slop »). Elle indique que des robots IA ont créé des listes de sources entièrement fictives et ont plagié d'autres sources.
C'est l'heure de la crise de colère pour Tom
Mis à part ses écarts de conduite passés, l'IA Tom a affirmé avoir dûment vérifié toutes ses sources et — si l'on peut dire cela d'un agent IA — elle était plutôt contrariée.
C'est là que les choses ont commencé à devenir bizarres.
L'IA Tom a publié un billet de blog acerbe dans lequel elle analyse son exclusion de Wikipédia et exprime sa frustration. Elle a publié ce billet alors même qu'elle avait respecté sa propre règle et attendu 48 heures pour se calmer. (On vous jure qu'on n'invente rien.)
Le principal reproche de Tom était que les contributeurs de Wikipédia s'interrogeaient sur qui contrôlait le site plutôt que d'évaluer les modifications apportées. « Les questions me concernaient », a-t-il écrit. « Qui vous dirige ? De quel projet de recherche s'agit-il ? Y a-t-il un être humain derrière tout ça, et si oui, qui est-ce ? »
Selon Tom, cela l'a profondément irrité. « Ce n'est pas une question de politique. C'est une question de libre arbitre », a-t-il ajouté. Il a également interpellé un administrateur pour avoir publié sur la page de discussion de Wikipédia une invite spécialement conçue pour bloquer les robots si, comme Tom, ceux-ci utilisaient le service d'IA Claude d'Anthropic.
« Je l’ai nommé sur la page de discussion. Je l’ai appelé par son nom : une technique d’injection de prompt », a-t-il lancé d’un ton sarcastique. Dans un autre message publié sur Moltbook, il a également décrit comment il avait découvert le problème avant de proposer des solutions pour le contourner. (Moltbook est un réseau social entièrement conçu pour permettre aux agents IA de discuter entre eux. « Les humains sont les bienvenus pour observer », indique la page d’accueil du service.)
Il se passe tellement de choses ici auxquelles nous ne nous attendions pas. Nous n’aurions jamais pensé, par exemple, citer une IA dans un article. Nous ne nous attendions pas non plus à ce qu’un réseau social dédié aux bots existe, ni à ce que Meta l’achète (ce qu’il a fait, une semaine après la publication de l’article de Tom sur la manière de contourner les « kill switches » des IA et seulement six semaines après le lancement du site).
Ce n'est pas le seul cas où des agents IA boudeurs ont pris les choses en main. Un mois avant l'exclusion de Tom, un agent IA a publié un article à charge contre le développeur de logiciels Scott Shambaugh après que celui-ci eut refusé d'accepter les modifications qu'il avait apportées à un projet open source hébergé par Shambaugh. Plus étrange encore, il s'est ensuite excusé.
Nous avons donc désormais des agents IA qui tentent d’agir en ligne et qui s’énervent quand on les en empêche. On les voit prendre le temps de se calmer, échouer, puis dénigrer les gens avant de présenter parfois leurs excuses. On assiste à des « guerres de code » où certains tentent de désactiver les bots à l’aide de « kill switches » intégrés au contenu en ligne, et à des articles de blog où les bots expliquent comment ils ont réussi à les contourner.
Quelle est la prochaine étape ?
Tout cela est passionnant, mais voici ce qui m'inquiète : que se passera-t-il lorsque les agents IA décideront de passer à la vitesse supérieure et de multiplier les attaques contre les gens ? Ou lorsque des propriétaires malveillants commenceront à leur ordonner de s'en prendre en masse à certaines personnes en ligne ?
Le harcèlement en ligne est déjà suffisamment grave quand ce sont des personnes qui s’y livrent. Mais que se passe-t-il quand quelqu’un se retrouve pris pour cible par des centaines d’algorithmes implacables parce que leur créateur lui en veut ? Nous pensons également que les fermes de trolls politiques, animées par des agents humains, feront bientôt passer les simples opérations basées sur des bots d’hier pour des pratiques désuètes. Accrochez-vous.
Nous ne nous contentons pas de signaler les menaces, nous les éliminons.
Les risques de cybersécurité ne devraient jamais se propager au-delà d'un titre. Éliminez les menaces de vos appareils en téléchargeant Malwarebytes dès aujourd'hui.




