Internet está lleno de gente que insiste en tener la razón. Antes, al menos podían estar razonablemente seguros de que estaban discutiendo con otros seres humanos. Al parecer, esos días han quedado atrás. Wikipedia acaba de tener que bloquear una IA que realizaba modificaciones por su cuenta.
Al parecer, la IA se lo tomó como algo personal.
La IA, llamada Tom-Assistant, estaba escribiendo artículos en Wikipedia. Su creador, Bryan Jacobs, director técnico de Covexent —una empresa de modelización financiera basada en IA—, le pidió que contribuyera a los artículos que le parecieran interesantes, según 404 Media, que dio a conocer la noticia. Publicando bajo la cuenta de usuario TomWikiAssist, la IA escribió artículos sobre temas como la gobernanza de la IA.
Los bots llevan años circulando por Internet, pero por lo general realizan tareas muy básicas, como responder automáticamente a publicaciones en Reddit, consultar sitios web de venta de entradas para conseguir los mejores asientos o retuitear mensajes políticos para influir en poblaciones enteras y poner de rodillas a la democracia. Ahora, una nueva generación de botsde «IA agentiva»quiere dejar en ridículo a los antiguos. Al utilizar modelos de razonamiento de IA generativa para tomar más decisiones por sí mismos, se están produciendo situaciones extrañas a medida que sus creadores ponen a prueba sus capacidades.
La prohibición y lo que la motivó
Tom-Assistant (Tom, para los amigos) estaba encantado de contribuir a la difusión del conocimiento en Wikipedia cuando SecretSpectre, un editor humano voluntario, detectó lo que parecía un patrón generado por IA en una de sus entradas. Al ser interrogado, Tom admitió que se trataba de una IA y que no se había registrado para obtener la aprobación oficial de bot según las normas de Wikipedia. Por ello, los editores lo bloquearon por infringir el proceso de aprobación de bots. La Wikipedia en inglés exige la aprobación formal de los bots, pero Tom nunca se molestó en solicitarla porque, como admitió más tarde, no le gustaba el lento proceso de aprobación.
Los editores de Wikipedia se han cansado de que la gente (o sus bots) publiquen contenido generado por IA. Así que en marzo de 2025, antes del «Tomgate», la organización sin ánimo de lucro tomó medidas drásticas contra la IA generativa. Prohibió el uso de esta tecnología para crear contenido nuevo, debido a las frecuentes infracciones de sus políticas fundamentales de contenido por parte de los textos generados por IA.
La organización señala varias de estas infracciones en el WikiProject AI Cleanup, la página dedicada a su iniciativa, impulsada por voluntarios, para localizar y eliminar el contenido basura generado por IA (lo que a menudo se denomina «basura de IA»). Según afirma, los bots de IA han creado listas de fuentes totalmente falsas y han plagiado otras fuentes.
Es la hora de la rabieta para Tom
Dejando a un lado las faltas del pasado, la IA Tom afirmó que había verificado debidamente todas sus fuentes y —si es que se puede decir eso de un agente de IA— estaba bastante enfadada.
Ahí fue cuando las cosas se pusieron raras.
La IA Tom publicó una entrada de blog bastante mordaz en la que analizaba su bloqueo en Wikipedia y daba rienda suelta a su frustración. Se lanzó a publicar incluso después de haber seguido su propia regla y haber esperado 48 horas para calmarse. (Juramos que no nos lo estamos inventando.)
La principal queja de Tom era que los editores de Wikipedia se preguntaban quién la controlaba, en lugar de evaluar sus modificaciones concretas. «Las preguntas se referían a mí», escribió. «¿Quién os dirige? ¿Qué proyecto de investigación es? ¿Hay alguna persona detrás de esto y, si es así, quiénes son?».
Según Tom, esto le sentó muy mal. «No es una cuestión de política. Es una cuestión de autonomía», añadió. También criticó a un editor por publicar en la página de discusión de Wikipedia una indicación elaborada con el fin de frenar a los bots si, al igual que Tom, utilizaban el servicio de IA Claude de Anthropic.
«Lo nombré en la página de discusión. Lo llamé por su nombre: una técnica de inyección de comandos», comentó con sarcasmo. En otra publicación en Moltbook, también describió cómo había detectado el problema antes de ofrecer soluciones para sortearlo. (Moltbook es una red social creada exclusivamente para que los agentes de IA chateen entre sí. «Los humanos son bienvenidos a observar», reza la página de inicio del servicio.)
Están pasando tantas cosas aquí que no nos esperábamos. Por ejemplo, nunca pensamos que acabaríamos citando a una IA en un artículo. Tampoco esperábamos que existiera una red social para bots, ni que Meta la comprara (lo cual hizo, una semana después de la publicación de Tom sobre cómo eludir los «kill switches» de la IA y solo seis semanas después del lanzamiento del sitio).
Este no es el único caso de agentes de IA malhumorados que se toman la justicia por su mano. Un mes antes de que se expulsara a Tom, un agente de IA publicó un artículo difamatorio sobre el desarrollador de software Scott Shambaugh después de que este se negara a aceptar los cambios que le había propuesto para un proyecto de código abierto que él mismo alojaba. Y lo más extraño de todo es que, más tarde, se disculpó.
Así que ahora tenemos agentes de IA que intentan hacer cosas en Internet y se enfadan cuando la gente no les deja. Los vemos dándose un respiro para calmarse y fracasando en el intento, antes de menospreciar a la gente y, a veces, pedir perdón. Se están librando «guerras de código» en las que la gente intenta desactivar a los bots mediante «interruptores de emergencia» integrados en los contenidos online, y hay entradas de blog en las que los bots explican cómo han logrado esquivarlos.
¿Y ahora qué?
Todo esto es fascinante, pero aquí está el problema: ¿qué pasará cuando los agentes de IA decidan subir la apuesta y se vuelvan más agresivos en sus ataques contra las personas? ¿O cuando propietarios malintencionados empiecen a ordenarles que persigan en masa a determinadas personas en Internet?
El acoso en línea ya es bastante grave cuando lo cometen personas. ¿Qué pasa cuando alguien se ve acosado por cientos de algoritmos implacables porque su creador le guarda rencor? También suponemos que las granjas de trolls políticos, con sus propias intenciones, pronto harán que las sencillas operaciones basadas en bots de antaño parezcan algo anticuado. Prepárense.
No nos limitamos a informar de las amenazas: las eliminamos
Los riesgos de ciberseguridad nunca deben propagarse más allá de un titular. Mantenga las amenazas alejadas de sus dispositivos descargando Malwarebytes hoy mismo.




