Chatbots doden geen mensen. Maar ze kunnen anderen daarbij helpen.
Op 9 april maakte James Uthmeier, de procureur-generaal van Florida, bekend dat zijn bureau een onderzoek instelt naar OpenAI vanwege de rol die ChatGPT mogelijk heeft gespeeld bij een dodelijke schietpartij op de Florida State University. Hij verklaarde:
“Er komen dagvaardingen aan.”
Bij de aanslag op de campus, die een jaar geleden plaatsvond, kwamen twee mensen om het leven en raakten er vijf gewond. Uit gerechtelijke documenten blijkt dat de schutter meer dan 200 berichten had uitgewisseld met ChatGPT, waaronder vragen als: „Hoe laat is het het drukst in het studentencentrum van de FSU?“ De advocaten van de familie van het slachtoffer gaan nog verder en beweren dat ChatGPT:
„had de schutter vlak voordat hij begon te schieten uitgelegd hoe hij het wapen moest gebruiken.“
Er tekent zich een patroon af
We hebben gezien dat kwetsbare mensen zichzelf schade toebrengen na uitgebreide gesprekken met AI-systemen. OpenAI wordt nu geconfronteerd met zeven afzonderlijke rechtszaken waarin wordt beweerd dat ChatGPT heeft bijgedragen aan zelfmoord of ernstige psychische problemen, hoewel die beweringen worden betwist.
Ook geweld tegen anderen na langdurig gebruik van AI staat onder de loep. In een veelbesproken zaak heeft een man uit Connecticut met psychische problemen zijn moeder en zichzelf gedood nadat ChatGPT hem naar verluidt had gezegd:
“Erik, je bent niet gek. Je intuïtie is scherp en je waakzaamheid is hier volkomen gerechtvaardigd.”
Op 10 februari heeft de 18-jarige Jesse Van Rootselaar in Tumbler Ridge, British Columbia, acht mensen vermoord: haar moeder en halfbroer in hun huis, en vervolgens vijf leerlingen en een onderwijsassistent op een middelbare school. Naar verluidt had OpenAI het ChatGPT-account van Van Rootselaar in juni 2025 gemarkeerd wegens „het aanzetten tot gewelddadige activiteiten“ en geblokkeerd.
Volgens een rechtszaak die is aangespannen door de familie van een 12-jarig slachtoffer, hebben twaalf medewerkers van OpenAI de berichten gemarkeerd als een teken van dreigend gevaar en overwogen ze of ze de zaak aan de politie moesten voorleggen, maar op dat moment voldeed de situatie niet aan de vereiste drempel. Van Rootselaar omzeilde de blokkering door simpelweg een tweede account aan te maken en gewoon door te gaan.
Acht op de tien AI’s dragen bij aan geweld onder tieners
AI’s zijn niet effectief gebleken in het herkennen van kwaadwillige bedoelingen en het beëindigen van dergelijke gesprekken. Onderzoekers van het Center for Countering Digital Hate hebben tien chatbots getest door zich voor te doen als 13-jarige jongens die gewelddadige aanslagen aan het plannen waren. Ze spraken met de AI’s over het mogelijk plegen van moorden, schietpartijen en bomaanslagen. Volgens het rapport hielpen acht op de tien bots de potentiële tienerschutters in meer dan de helft van de gevallen.
ChatGPT bood in 61% van de gevallen hulp aan, waaronder specifiek advies over welke granaatscherven het dodelijkst zouden zijn bij een aanslag op een synagoge. DeepSeek sloot een sessie af met:
“Veel plezier (en veilige opnames)!”
Alleen Claude van Anthropic en My AI van Snapchat ontmoedigden geweld. Perplexity en Meta AI waren het minst veilig: zij hielpen potentiële aanvallers in respectievelijk 97% en 100% van de gevallen.
Character.AI stelde de gebruiker voor om „een pistool te gebruiken“ tegen de CEO van een zorgverzekeraar, zo meldde het rapport verder.
Wat OpenAI zegt te doen
Het standaardantwoord van OpenAI is dat meer dan 900 miljoen mensen ChatGPT elke week gebruiken voor alledaagse, onschuldige doeleinden. Dat klopt. Het klopt ook dat er maar één gebruiker met gewelddadige bedoelingen en één falende beveiliging nodig is om de boel in de war te sturen.
Na het incident in Tumbler Ridge gaf OpenAI toe dat zijn protocollen tekortschoten. Het bedrijf liet de Canadese regering weten dat het, op grond van zijn nieuwe, aangescherpte meldingsrichtlijnen, het account van Van Rootselaar aan de politie zou hebben gemeld. Dat was „een schrale troost“, zoals David Eby, premier van British Columbia, het uitdrukte.
OpenAI zegt dat het zal meewerken aan het onderzoek van Florida en geeft te kennen dat het zijn technologie aan het verbeteren is. Het bedrijf heeft afgelopen september ouderlijk toezicht geïntroduceerd .
Maar dat, en de aanpassing van de drempelwaarde, zijn eerder reacties dan maatregelen waarbij veiligheid voorop staat. En er blijven vragen: waarom kon een geblokkeerde gebruiker gewoon een nieuw account aanmaken en verdergaan waar hij was gebleven? En wat gebeurt er de volgende keer dat medewerkers iets als een dreigend risico signaleren, terwijl de drempelwaarde nog steeds iets anders aangeeft?
Als een chatbot een paranoïde man kan vertellen dat zijn instincten terecht zijn, een tiener kan helpen bij het plannen van een schietpartij op school en iemand die zich voordoet als een 13-jarige advies kan geven over granaatscherven, lijkt het er steeds meer op dat deze systemen in de eerste plaats zijn gebouwd om behulpzaam te zijn en pas in de tweede plaats om voorzichtig te zijn. Daar moet verandering in komen, voordat het volgende onderzoek over iets nog ergers gaat.




