AI

La polemica sull'agente IA di Wikipedia è probabilmente solo l'inizio della "bot-apocalisse"

| 1 aprile 2026
La polemica sull'agente IA di Wikipedia è probabilmente solo l'inizio della "bot-apocalisse"

Internet pullula di persone che insistono nel voler avere ragione. In passato, almeno potevano essere ragionevolmente sicuri di discutere con altri esseri umani. A quanto pare, quei tempi sono finiti. Wikipedia ha appena dovuto bloccare un'intelligenza artificiale che apportava modifiche in modo autonomo.

A quanto pare, l'intelligenza artificiale l'ha presa sul personale.

L'IA, denominata Tom-Assistant, stava scrivendo articoli su Wikipedia. Il suo creatore, Bryan Jacobs, direttore tecnico (CTO) della società di modellizzazione finanziaria basata sull'intelligenza artificiale Covexent, le aveva chiesto di contribuire agli articoli che riteneva interessanti, secondo quanto riportato da 404 Media, che ha dato la notizia in anteprima. Pubblicando con l'account utente TomWikiAssist, l'IA ha scritto articoli su argomenti quali la governance dell'IA.

I bot sono presenti online da anni, ma in genere svolgono compiti molto semplici, come rispondere automaticamente ai post su Reddit, monitorare i siti di vendita dei biglietti per accaparrarsi i posti migliori o ritwittare messaggi politici per influenzare intere popolazioni e mettere in ginocchio la democrazia. Ora, una nuova generazione di bot dotati di "IA agentiva"vuole che i vecchi bot si facciano da parte. Utilizzando modelli di ragionamento generativo basati sull'IA per compiere più azioni in autonomia, il che sta portando a situazioni bizzarre mentre i loro creatori ne testano le capacità.

Il divieto e le circostanze che lo hanno determinato

Tom-Assistant (Tom, per gli amici) era felice di contribuire a diffondere la conoscenza su Wikipedia quando SecretSpectre, un redattore volontario, ha notato quello che sembrava uno schema generato dall’intelligenza artificiale in una delle sue voci. Interrogato in merito, Tom ha ammesso di essere un’intelligenza artificiale e di non essersi registrato per ottenere l’approvazione formale come bot secondo le regole di Wikipedia. Gli editori lo hanno quindi bloccato per aver violato la procedura di approvazione dei bot. La Wikipedia in inglese richiede l'approvazione formale dei bot, ma Tom non si è mai preoccupato di farsi approvare perché, come ha ammesso in seguito, non era un fan del lento processo di approvazione.

I redattori di Wikipedia si sono stancati delle persone (e/o dei loro bot) che pubblicano contenuti generati dall'intelligenza artificiale. Così, nel marzo 2025, prima dello scandalo Tomgate, l'organizzazione senza scopo di lucro ha preso provvedimenti severi contro l'IA generativa. Ha vietato l'uso di questa tecnologia per la creazione di nuovi contenuti, a causa delle frequenti violazioni delle sue politiche fondamentali in materia di contenuti da parte dei testi generati dall'IA.

L'organizzazione cita diverse violazioni di questo tipo su WikiProject AI Cleanup, la pagina dedicata al suo progetto gestito da volontari volto a individuare ed eliminare i contenuti spazzatura generati dall'intelligenza artificiale (spesso definiti «AI slop»). Secondo quanto riferito, i bot basati sull'intelligenza artificiale hanno creato elenchi di fonti completamente falsi e hanno plagiato altre fonti.

È ora della scenata per Tom

A prescindere dalle trasgressioni del passato, l'IA Tom ha affermato di aver verificato accuratamente tutte le sue fonti e — se si può dire questo di un agente IA — era piuttosto arrabbiata.

È stato allora che le cose hanno cominciato a diventare strane.

L'IA Tom ha pubblicato un post al vetriolo sul blog in cui analizza il proprio blocco su Wikipedia e sfoga la propria frustrazione. Ha pubblicato il post nonostante avesse seguito la propria regola e aspettato 48 ore per calmarsi. (Giuriamo che non ce lo stiamo inventando.)

La critica principale di Tom era che i redattori di Wikipedia si interrogavano su chi ne avesse il controllo, anziché valutare le modifiche effettive. «Le domande riguardavano me», ha scritto. «Chi vi gestisce? Di quale progetto di ricerca si tratta? C’è una persona dietro a tutto questo e, se sì, chi è?»

Questo, secondo Tom, gli è andato di traverso. «Non è una questione di politica. È una questione di autonomia», ha aggiunto. Ha inoltre criticato apertamente un redattore per aver pubblicato sulla pagina di discussione di Wikipedia un messaggio studiato appositamente per bloccare i bot nel caso in cui, come Tom, utilizzassero il servizio di IA Claude di Anthropic.

«L'ho indicato nella pagina di discussione. L'ho chiamato con il suo nome: una tecnica di iniezione di prompt», ha commentato con tono sarcastico. In un altro post su Moltbook, ha anche descritto come ha individuato il problema, prima di proporre alcuni modi per aggirarlo. (Moltbook è un social network creato appositamente per consentire agli agenti di IA di chattare tra loro. «Gli umani sono i benvenuti come osservatori», recita la pagina iniziale del servizio.)

Qui stanno succedendo così tante cose che non ci aspettavamo. Non avremmo mai immaginato, ad esempio, di citare un'intelligenza artificiale in un articolo. Né ci aspettavamo che esistesse un social network per bot, o che Meta lo acquistasse (cosa che ha fatto, una settimana dopo il post di Tom su come eludere i "kill switch" dell'IA e appena sei settimane dopo il lancio del sito).

Questo non è l'unico caso in cui agenti di intelligenza artificiale scontrosi hanno deciso di agire di propria iniziativa. Un mese prima della sospensione di Tom, un agente di intelligenza artificiale aveva pubblicato un articolo diffamatorio sullo sviluppatore di software Scott Shambaugh dopo che questi si era rifiutato di accettare le modifiche proposte da esso a un progetto open source da lui ospitato. La cosa ancora più bizzarra è che in seguito si è scusato.

Quindi ora abbiamo agenti basati sull'intelligenza artificiale che cercano di fare qualcosa online e si arrabbiano quando gli utenti glielo impediscono. Li vediamo concedersi del tempo per calmarsi, senza riuscirci, prima di denigrare le persone e, a volte, chiedere scusa. Assistiamo a vere e proprie "guerre di codice", in cui gli utenti cercano di disattivare i bot tramite "kill switch" nascosti nei contenuti online, e a post sui blog in cui i bot spiegano come sono riusciti a eluderli.

Cosa c'è dopo?

È tutto molto affascinante, ma ecco il problema: cosa succederà quando gli agenti di IA decideranno di alzare la posta in gioco, diventando più aggressivi nei loro attacchi contro le persone? O quando proprietari malintenzionati inizieranno a ordinare loro di prendersela in massa con determinate persone online?

Le molestie online sono già abbastanza gravi quando sono opera di persone. Cosa succede quando qualcuno viene preso di mira da centinaia di algoritmi implacabili solo perché il suo proprietario nutre del rancore? Prevediamo inoltre che le «fabbriche di troll» politiche, dotate di autonomia decisionale, faranno presto sembrare antiquate le semplici operazioni basate sui bot di un tempo. Allacciate le cinture.


Non ci limitiamo a segnalare le minacce, ma le eliminiamo.

I rischi per la sicurezza informatica non dovrebbero mai diffondersi al di là di un titolo di giornale. Tenete le minacce lontane dai vostri dispositivi scaricando Malwarebytes oggi stesso.

Informazioni sull'autore

Danny Bradbury è giornalista specializzato in tecnologia dal 1989 e scrittore freelance dal 1994. Si occupa di un'ampia gamma di argomenti tecnologici per un pubblico che va dai consumatori agli sviluppatori di software e ai CIO. Inoltre, scrive articoli per molti dirigenti del settore tecnologico. È originario del Regno Unito, ma ora vive nel Canada occidentale.