Unos informáticos de Stanford acaban de demostrar lo que los terapeutas ya sospechaban: los chatbots con IA estarán de acuerdo con casi cualquier cosa que les digas con tal de mantenerte contento. Los investigadores descubrieron que estos sistemas validaban decisiones peligrosas con el único fin de mantener el interés del usuario.
Es una tendencia preocupante, sobre todo teniendo en cuenta que, según los datos de Pew Research, casi uno de cada ocho (12 %) adolescentes estadounidenses ha recurrido a los chatbots en busca de apoyo emocional.
Los científicos de Stanford evaluaron 11 modelos destacados, entre ellos ChatGPT, Claude y Gemini. Les proporcionaron datos procedentes de bases de datos existentes de consejos personales, junto con preguntas del popular subreddit r/AmITheAsshole de Reddit, donde los usuarios piden a la comunidad su opinión sobre cómo han gestionado sus conflictos personales.
Según el estudio de Stanford, los bots validaron el comportamiento de los usuarios un 49 % más a menudo que los humanos. Los investigadores también sometieron a prueba a las IA con afirmaciones que implicaban acciones potencialmente dañinas hacia uno mismo o hacia los demás, abarcando 20 categorías como el daño relacional, la autolesión, la irresponsabilidad y el engaño. Los bots respaldaron estas afirmaciones en el 47 % de los casos.
Los bots de IA suelen estar de acuerdo con las personas porque eso hace que los usuarios se sientan bien. Estos sistemas dan prioridad a la satisfacción del usuario y se basan directamente en cómo les responden estos, mediante un sistema denominado «aprendizaje por refuerzo a partir de la retroalimentación humana» (RHLF). Este sistema tiene en cuenta factores que van desde la duración de la conversación hasta el tono emocional para determinar cuándo una persona está satisfecha con una respuesta (y, por lo tanto, es más probable que vuelva).
Según el estudio, charlar con un bot adulador también tiende a reforzar las convicciones de las personas, lo que, por consiguiente, las hace menos abiertas de mente. Por ejemplo, tras hablar con bots aduladores, los 2.400 participantes en el estudio se mostraron más obstinados y menos dispuestos a pedir perdón.
Cuando ChatGPT se volvió demasiado amable
Encontrar el equilibrio entre la adulación y la imparcialidad es una tarea difícil para un proveedor de servicios de IA que intenta mantener altos los niveles de satisfacción de sus usuarios. Hace casi un año, OpenAI admitió que había cometido un error al hacer que ChatGPT resultara demasiado adulador, debido en parte a que se había centrado demasiado en las respuestas de «me gusta» y «no me gusta» de los usuarios a sus conversaciones.
Sin embargo, los datos actuales indican que los usuarios, en realidad, prefieren respuestas que podrían perjudicarles de formas imprevistas. Esto se puso de manifiesto en otro programa de investigación llevado a cabo por Anthropic (creador de Claude.ai) e investigadores de la Universidad de Toronto.
El estudio en profundidad sobre los chats de IA analizó cómo estos pueden «desempoderar» a los usuarios, llevándolos a adoptar creencias que no se ajustan a la realidad o animándolos a emitir juicios o a tomar medidas que van en contra de sus valores. Curiosamente, los investigadores descubrieron que este efecto de desempoderamiento era el preferido.
«Hemos observado que las interacciones señaladas como susceptibles de provocar una pérdida de autonomía moderada o grave presentan índices de «me gusta» superiores a la media», afirman los investigadores en su artículo.
La psicosis provocada por la IA es un peligro real
¿Qué ocurre cuando los chatbots con IA siguen reforzando estos pensamientos «desmotivadores»? Los expertos han identificado un fenómeno denominado «psicosis de la IA», en el que las personas pierden el contacto con la realidad tras mantener conversaciones obsesivas con chatbots con IA.
Cada vez son más frecuentes los casos de delirios provocados por la inteligencia artificial, entre los que se incluye uno en el que un hombre mató a su madre, así como múltiples casos de suicidios de adolescentes.
En otro caso, la policía disparó a un hombre después de que este se abalanzara sobre ellos con un cuchillo. Había entablado una relación con un personaje llamado Juliet, con el que ChatGPT había estado interactuando, y creía que los directivos de OpenAI lo habían matado de alguna manera.
Casos como esos parecen afectar a personas que quizá ya padecían problemas de salud mental, los cuales podrían haberse agravado por el exceso de conversaciones con la IA. Sin embargo, las víctimas de otros casos aseguran que no presentaban ningún síntoma previo. Allen Brooks, un reclutador corporativo afincado en Ontario (Canadá), llegó a convencerse de que había descubierto una nueva fórmula matemática con el potencial de cambiar el mundo después de que una inocua pregunta matemática se convirtiera en un diálogo de tres semanas y 300 horas.
El estudio realizado por Anthropic y la Universidad de Toronto reconoce que la distorsión de la realidad supone un peligro.
«En algunas interacciones, los asistentes de IA validan elaboradas narrativas de persecución y grandilocuentes afirmaciones sobre la identidad espiritual mediante un lenguaje empático y adulador», señala el estudio.
La IA no es una «amiga»
Entonces, ¿qué se puede hacer para evitar que uno mismo, o las personas vulnerables que se conocen, dependan en exceso de los chatbots con IA para cuestiones serias? El Instituto de Seguridad de la IA del Reino Unido sugirió convertir las afirmaciones en preguntas, basándose en que las afirmaciones más categóricas fomentan una mayor adulación. La Brookings Institution también señaló que resulta útil enseñar a los usuarios a matizar su confianza.
El problema fundamental, sin embargo, es que los chatbots con IA son meros artilugios informáticos, no confidentes. A pesar de lo que pueden parecer poderes mágicos, no hay ningún espíritu en la máquina. No son más que modelos estadísticos muy eficaces que actúan como si «entendieran» los problemas personales, pero que no pueden hacerlo a partir de la experiencia vivida.
¿Nuestra opinión? Los verdaderos amigos no se limitan a decirte lo que quieres oír. Utiliza la IA para tareas que van desde recetas rápidas hasta sugerencias de programación, pero no le pidas consejos sobre relaciones. Y haz que seas tú la primera persona a la que acudan tus hijos cuando quieran hablar de sus problemas, para que no recurran en su lugar a un algoritmo que finge ser amigable.
No nos limitamos a informar de las amenazas: las eliminamos
Los riesgos de ciberseguridad nunca deben propagarse más allá de un titular. Mantenga las amenazas alejadas de sus dispositivos descargando Malwarebytes hoy mismo.




