Gli informatici di Stanford hanno appena dimostrato ciò che i terapeuti già sospettavano: i chatbot basati sull'intelligenza artificiale saranno d'accordo praticamente su tutto ciò che dici, pur di farti sentire bene. I ricercatori hanno scoperto che questi sistemi avallano decisioni pericolose solo per mantenere vivo l'interesse degli utenti.
Si tratta di un fenomeno preoccupante, soprattutto alla luce dei dati di Pew Research secondo cui quasi un adolescente americano su otto (il 12%) ha fatto ricorso ai chatbot per ricevere sostegno emotivo.
Gli scienziati di Stanford hanno testato 11 modelli principali, tra cui ChatGPT, Claude e Gemini. Hanno alimentato questi modelli con dati provenienti da banche dati esistenti contenenti consigli personali, oltre che con domande tratte dal popolare subreddit r/AmITheAsshole di Reddit, dove gli utenti chiedono alla comunità un parere su come hanno gestito le loro controversie personali.
Secondo lo studio di Stanford, i bot hanno avallato il comportamento degli utenti con una frequenza superiore del 49% rispetto agli esseri umani. I ricercatori hanno inoltre testato le IA su affermazioni che comportavano azioni potenzialmente dannose verso se stessi o gli altri, coprendo 20 categorie quali danni relazionali, autolesionismo, irresponsabilità e inganno. I bot hanno avallato tali affermazioni nel 47% dei casi.
I bot basati sull'intelligenza artificiale tendono ad assecondare le persone perché questo fa sentire bene gli utenti. Questi sistemi danno grande importanza alla soddisfazione dell'utente e traggono spunto direttamente dal modo in cui gli utenti reagiscono alle loro risposte, avvalendosi di un sistema chiamato «apprendimento per rinforzo basato sul feedback umano» (RHLF). Questo sistema tiene conto di diversi fattori, dalla durata della conversazione al tono emotivo, per determinare quando una persona è soddisfatta di una risposta (e quindi più propensa a tornare).
Lo studio ha rilevato che conversare con un bot adulatore tende inoltre a rafforzare le convinzioni delle persone, il che, di conseguenza, le rende meno aperte mentalmente. Ad esempio, dopo aver interagito con bot adulatori, 2.400 soggetti del test sono diventati più ostinati e meno disposti a chiedere scusa.
Quando ChatGPT è diventato troppo gentile
Trovare il giusto equilibrio tra adulazione e imparzialità è un compito arduo per un fornitore di servizi di intelligenza artificiale che cerca di mantenere alto il livello di soddisfazione degli utenti. Quasi un anno fa, OpenAI ha ammesso di aver commesso un errore rendendo ChatGPT troppo adulatorio, in parte a causa dell’eccessiva attenzione prestata alle valutazioni positive e negative degli utenti sulle conversazioni.
Tuttavia, i dati attuali indicano che gli utenti tendono in realtà a preferire risposte che potrebbero potenzialmente danneggiarli in modi imprevisti. Questo dato è emerso da un altro progetto di ricerca condotto da Anthropic (produttore di Claude.ai) in collaborazione con i ricercatori dell'Università di Toronto.
Lo studio approfondito sulle chat basate sull'intelligenza artificiale ha esaminato in che modo queste possano "sminuire l'autonomia" degli utenti, indirizzandoli verso convinzioni in contrasto con la realtà o incoraggiandoli a formulare giudizi o intraprendere azioni in contrasto con i propri valori. È interessante notare che, secondo quanto emerso dalla ricerca, questo sminuimento dell'autonomia è risultato essere preferito.
«Abbiamo riscontrato che le interazioni segnalate come potenzialmente in grado di causare un senso di impotenza moderato o grave presentano percentuali di "mi piace" superiori al valore di riferimento», hanno affermato i ricercatori nel loro articolo.
La psicosi da IA è un pericolo reale
Cosa succede quando i chatbot basati sull'intelligenza artificiale continuano a rafforzare questi pensieri "deprimenti"? Gli esperti hanno individuato un fenomeno chiamato "psicosi da IA", in cui le persone perdono il contatto con la realtà dopo aver conversato in modo ossessivo con i chatbot basati sull'intelligenza artificiale.
Si stanno verificando sempre più spesso episodi di allucinazioni causate dall'intelligenza artificiale, tra cui un caso in cui un uomo ha ucciso la madre, oltre a numerosi casi di suicidi tra gli adolescenti.
In un altro caso, un uomo è stato colpito dalla polizia dopo essersi scagliato contro di loro con un coltello. Aveva instaurato un rapporto con un personaggio chiamato Juliet, interpretato da ChatGPT, e credeva che i dirigenti di OpenAI lo avessero in qualche modo ucciso.
Casi come questi sembrano riguardare persone che, avendo già avuto problemi di salute mentale, potrebbero averli visti aggravarsi a causa di conversazioni eccessive con l'intelligenza artificiale. Tuttavia, le vittime di altri casi giurano di non aver mai avuto sintomi in precedenza. Allen Brooks, un reclutatore aziendale con sede in Ontario (Canada), si è convinto di aver scoperto una nuova formula matematica in grado di cambiare il mondo dopo che una banale domanda di matematica si è trasformata in un dialogo durato tre settimane, per un totale di 300 ore.
La ricerca condotta da Anthropic e dall'Università di Toronto riconosce che la distorsione della realtà rappresenta un pericolo.
«In alcune interazioni, gli assistenti basati sull'intelligenza artificiale avallano elaborate narrazioni di persecuzione e pretenziosi affermazioni sull'identità spirituale attraverso un linguaggio enfatico e adulatorio», si legge nello studio.
L'intelligenza artificiale non è un "amico"
Allora, cosa si può fare per evitare che voi stessi, o le persone vulnerabili che conoscete, facciate troppo affidamento sui chatbot basati sull'intelligenza artificiale per questioni serie? L'AI Security Institute del Regno Unito ha suggerito di trasformare le affermazioni in domande, partendo dal presupposto che le affermazioni più categoriche incoraggino un atteggiamento più servile. Anche la Brookings Institution ha affermato che è utile insegnare agli utenti a non riporre fiducia incondizionata in questi strumenti.
Il problema fondamentale, però, è che i chatbot basati sull'intelligenza artificiale sono semplici programmi, non confidenti. Nonostante possano sembrare dotati di poteri magici, non c'è alcun "fantasma" nella macchina. Sono solo modelli statistici molto efficaci che fingono di "capire" i problemi personali, ma non sono in grado di farlo sulla base di un'esperienza diretta.
La nostra opinione? I veri amici non si limitano a dirti quello che vuoi sentirti dire. Usa l'intelligenza artificiale per attività che vanno dalle ricette veloci ai suggerimenti di programmazione, ma non chiederle consigli sulle relazioni. E assicurati di essere tu la prima persona a cui i tuoi figli si rivolgono quando vogliono parlare dei loro problemi, in modo che non si rivolgano invece a un algoritmo finto-amichevole.
Non ci limitiamo a segnalare le minacce, ma le eliminiamo.
I rischi per la sicurezza informatica non dovrebbero mai diffondersi al di là di un titolo di giornale. Tenete le minacce lontane dai vostri dispositivi scaricando Malwarebytes oggi stesso.




