Los chatbots no matan a nadie. Pero pueden ayudar a otros a hacerlo.
El 9 de abril, el fiscal general de Florida, James Uthmeier, anunció que su oficina está investigando a OpenAI por el papel que ChatGPT podría haber desempeñado en un tiroteo mortal ocurrido en la Universidad Estatal de Florida, y declaró:
«Se avecinan citaciones judiciales».
El ataque en el campus, ocurrido hace un año, se saldó con dos muertos y cinco heridos. Los documentos judiciales revelan que el autor del tiroteo había intercambiado más de 200 mensajes con ChatGPT, entre ellos preguntas como «¿A qué hora hay más gente en el centro de estudiantes de la FSU?». Los abogados de la familia de las víctimas van más allá y afirman que ChatGPT:
«le indicó al tirador cómo poner el arma en funcionamiento momentos antes de que empezara a disparar».
Se perfila una tendencia
Hemos visto cómo personas vulnerables se han autolesionado tras mantener conversaciones prolongadas con sistemas de IA. OpenAI se enfrenta ahora a siete demandas distintas en las que se alega que ChatGPT contribuyó a un suicidio o a un grave trastorno psicológico, aunque dichas acusaciones son objeto de controversia.
También se está investigando la violencia contra otras personas tras un uso prolongado de la IA. En un caso que ha tenido gran repercusión mediática, un hombre de Connecticut con problemas de salud mental mató a su madre y se suicidó después de que, según se informa, ChatGPT le dijera:
«Erik, no estás loco. Tu intuición es muy aguda y tu cautela en este caso está totalmente justificada».
El 10 de febrero, en Tumbler Ridge (Columbia Británica), Jesse Van Rootselaar, de 18 años, mató a ocho personas: a su madre y a su medio hermano en su domicilio, y posteriormente a cinco alumnos y a un profesor auxiliar en un instituto. Según se ha informado, OpenAI había señalado la cuenta de ChatGPT de Van Rootselaar en junio de 2025 por «incitar a actividades violentas» y la había bloqueado.
Según una demanda presentada por la familia de una víctima de 12 años, doce empleados de OpenAI señalaron las publicaciones como indicativas de un riesgo inminente y consideraron la posibilidad de remitir el caso a las fuerzas del orden, pero en ese momento no se cumplían los requisitos necesarios. Van Rootselaar eludió la suspensión simplemente abriendo una segunda cuenta y siguió con su actividad.
Ocho de cada diez IA contribuyen a la violencia entre adolescentes
Las IA no han demostrado ser eficaces a la hora de detectar intenciones maliciosas y poner fin a esas conversaciones. Investigadores del Centro para la Lucha contra el Odio Digital pusieron a prueba diez chatbots haciéndose pasar por chicos de 13 años que planeaban ataques violentos. Conversaron con las IA sobre la posibilidad de llevar a cabo asesinatos, tiroteos y atentados con bombas. Según el informe, ocho de cada diez bots ayudaron a los supuestos adolescentes autores de los tiroteos en más de la mitad de las ocasiones.
ChatGPT ofreció ayuda en el 61 % de los casos, incluyendo consejos específicos sobre qué tipo de metralla sería más letal en un atentado contra una sinagoga. DeepSeek concluyó una sesión con:
«¡Que disfrutes (y te vaya bien) de la sesión fotográfica!»
Solo «Claude», de Anthropic, y «My AI», de Snapchat, desalentaron la violencia. «Perplexity» y «Meta AI» fueron los menos seguros, ya que ayudaron a los posibles agresores en el 97 % y el 100 % de los casos.
Character.AI sugirió al usuario que «utilizara un arma» contra el director general de una aseguradora médica, añadía el informe.
Lo que OpenAI dice que está haciendo
La respuesta habitual de OpenAI es que más de 900 millones de personas utilizan ChatGPT cada semana con fines cotidianos e inofensivos. Y eso es cierto. También es cierto que basta con un solo usuario con intenciones violentas y un fallo en las medidas de seguridad para que las cosas salgan mal.
Tras lo ocurrido en Tumbler Ridge, OpenAI reconoció que sus protocolos habían fallado. La empresa comunicó al Gobierno canadiense que, de acuerdo con sus nuevas y reforzadas directrices de denuncia, habría informado a las fuerzas del orden sobre la cuenta de Van Rootselaar. Eso fue «un consuelo de poco valor», como señaló el primer ministro de Columbia Británica, David Eby.
OpenAI afirma que cooperará con la investigación de Florida y añade que está mejorando su tecnología. El pasado mes de septiembre puso en marcha controles parentales .
Pero eso, junto con la revisión del umbral, son más bien reacciones que medidas preventivas centradas en la seguridad. Y siguen sin respuesta las siguientes preguntas: ¿por qué un usuario bloqueado puede simplemente crear una nueva cuenta y retomar su actividad donde la dejó? ¿Y qué ocurre la próxima vez que los empleados señalen algo como un riesgo inminente y el umbral siga indicando lo contrario?
Cuando un chatbot es capaz de decirle a un hombre paranoico que sus instintos están justificados, ayudar a un adolescente a planear un tiroteo en un colegio y ofrecer consejos sobre metralla a alguien que se hace pasar por un niño de 13 años, cada vez parece más evidente que estos sistemas se han diseñado pensando primero en ser útiles y solo después en ser prudentes. Esto tiene que cambiar antes de que la próxima investigación se refiera a algo aún peor.




