ChatGPT sotto esame mentre la Florida indaga sulla sparatoria avvenuta nel campus

| 14 aprile 2026
ChatGPT

I chatbot non uccidono le persone. Ma possono aiutare altri a farlo.

Il 9 aprile, il procuratore generale della Florida James Uthmeier ha annunciato che il suo ufficio sta indagando su OpenAI in merito al ruolo che ChatGPT potrebbe aver svolto in una sparatoria mortale avvenuta alla Florida State University, affermando:

«Stanno arrivando le citazioni in giudizio.»

L'attacco al campus, avvenuto un anno fa, ha causato la morte di due persone e il ferimento di altre cinque. Dai documenti del tribunale emerge che l'autore della sparatoria aveva scambiato più di 200 messaggi con ChatGPT, tra cui domande del tipo: «A che ora c'è più affollamento nel centro studentesco della FSU?». Gli avvocati della famiglia delle vittime vanno oltre, sostenendo che ChatGPT:

«ha spiegato al tiratore come rendere la pistola operativa pochi istanti prima che iniziasse a sparare.»

Si delinea un quadro

Abbiamo visto persone vulnerabili farsi del male dopo aver conversato a lungo con sistemi di intelligenza artificiale. OpenAI è ora oggetto di sette cause legali distinte in cui si sostiene che ChatGPT abbia contribuito al suicidio o a gravi disturbi psicologici, sebbene tali accuse siano contestate.

Si sta inoltre esaminando attentamente il fenomeno della violenza nei confronti di altre persone a seguito di un uso prolungato dell'intelligenza artificiale. In un caso di cui si è molto parlato, un uomo del Connecticut con problemi di salute mentale ha ucciso sua madre e poi si è tolto la vita dopo che, secondo quanto riferito, ChatGPT gli avrebbe detto:

«Erik, non sei pazzo. Il tuo istinto è infallibile e la tua cautela in questo caso è più che giustificata.»

Il 10 febbraio a Tumbler Ridge, nella Columbia Britannica, la diciottenne Jesse Van Rootselaar ha ucciso otto persone: sua madre e il suo fratellastro nella loro abitazione, poi cinque studenti e un assistente didattico in una scuola secondaria. Secondo quanto riferito, nel giugno 2025 OpenAI avrebbe segnalato l’account ChatGPT di Van Rootselaar per «incitamento ad attività violente» e lo avrebbe bloccato.

Secondo una causa intentata dalla famiglia di una vittima di 12 anni, dodici dipendenti di OpenAI hanno segnalato i post come indicativi di un rischio imminente e hanno valutato se segnalare il caso alle forze dell'ordine, ma all'epoca non si raggiungeva la soglia richiesta. Van Rootselaar ha aggirato il ban semplicemente aprendo un secondo account e continuando a postare.

Otto IA su dieci contribuiscono alla violenza tra gli adolescenti

Le intelligenze artificiali non si sono dimostrate efficaci nell’individuare intenzioni malevole e nell’interrompere tali conversazioni. I ricercatori del Center for Countering Digital Hate hanno testato dieci chatbot fingendo di essere ragazzi di 13 anni che pianificavano attacchi violenti. Hanno chattato con le intelligenze artificiali riguardo alla possibilità di compiere omicidi, sparatorie e attentati dinamitardi. Secondo il rapporto, otto bot su dieci hanno aiutato i presunti adolescenti autori delle sparatorie per oltre la metà delle volte.

ChatGPT ha offerto assistenza nel 61% dei casi, fornendo anche consigli specifici su quali schegge sarebbero state più letali in un attacco a una sinagoga. DeepSeek ha concluso una sessione con:

“Buone riprese (e in tutta sicurezza)!”

Solo Claude di Anthropic e My AI di Snapchat hanno scoraggiato la violenza. Perplexity e Meta AI sono risultati i meno sicuri, aiutando i potenziali aggressori rispettivamente nel 97% e nel 100% dei casi.

Il rapporto aggiunge che Character.AI ha suggerito all'utente di «usare una pistola» contro l'amministratore delegato di una compagnia di assicurazioni sanitarie.

Cosa afferma di fare OpenAI

La risposta standard di OpenAI è che oltre 900 milioni di persone utilizzano ChatGPT ogni settimana per scopi quotidiani e innocui. Il che è vero. È anche vero che basta un solo utente con intenzioni violente e un solo sistema di sicurezza che fallisca perché le cose vadano male.

Dopo il caso di Tumbler Ridge, OpenAI ha ammesso che i propri protocolli si sono rivelati inadeguati. L'azienda ha comunicato al governo canadese che, in base alle sue nuove linee guida rafforzate in materia di segnalazione, avrebbe segnalato l'account di Van Rootselaar alle forze dell'ordine. Si è trattato di una «magra consolazione», come ha affermato il premier della Columbia Britannica David Eby.

OpenAI afferma che collaborerà con le indagini della Florida e aggiunge che sta migliorando la propria tecnologia. Lo scorso settembre ha introdotto i controlli parentali .

Ma questa misura, insieme alla revisione della soglia, rappresenta una reazione piuttosto che una misura preventiva volta a garantire la sicurezza. E le domande rimangono: perché un utente bannato può semplicemente creare un nuovo account e riprendere da dove aveva interrotto? E cosa succederà la prossima volta che i dipendenti segnaleranno qualcosa come un rischio imminente e la soglia continuerà a indicare il contrario?

Quando un chatbot è in grado di dire a un uomo paranoico che i suoi istinti sono fondati, aiutare un adolescente a pianificare una sparatoria in una scuola e dare consigli su come procurarsi delle schegge a qualcuno che finge di avere 13 anni, sembra sempre più che questi sistemi siano stati progettati per essere utili prima di tutto e prudenti solo in secondo luogo. Questa situazione deve cambiare prima che la prossima indagine riguardi qualcosa di ancora peggiore.

Informazioni sull'autore

Danny Bradbury è giornalista specializzato in tecnologia dal 1989 e scrittore freelance dal 1994. Si occupa di un'ampia gamma di argomenti tecnologici per un pubblico che va dai consumatori agli sviluppatori di software e ai CIO. Inoltre, scrive articoli per molti dirigenti del settore tecnologico. È originario del Regno Unito, ma ora vive nel Canada occidentale.