Los robots asesinos ya están aquí. ¿Y ahora qué? (Lock and Code, temporada 7, episodio 7)

| 5 de abril de 2026
Un candado ilustrado se monta en un pie de micrófono y el dispositivo emite ondas sonoras.

Esta semana en el podcast Lock and Code...

Tenemos que hablar de los robots asesinos. No, no me refiero a Terminator, ni a algún robot de Boston Dynamics que se haya vuelto loco. Tenemos que hablar, más bien, de una realidad tecnológica que ya está muy presente.

A finales de febrero, la empresa de inteligencia artificial Anthropic hizo una declaración que quizá haya sorprendido a quienes solo conocen su útil chatbot Claude: la empresa no permitiría que el Gobierno utilizara su tecnología para matar personas sin los controles de seguridad adecuados.

Un momento… ¿qué?

A pesar de que, para la mayoría de la gente, Anthropic es conocida como la creadora de un asistente colaborativo basado en IA para programar, escribir y realizar búsquedas, la empresa ya había implementado Claude en todo el Gobierno de los Estados Unidos para satisfacer necesidades militares estratégicas. Según Anthropic, el Departamento de Defensa de los Estados Unidos y otras agencias de seguridad nacional utilizaron Claude para «aplicaciones críticas para la misión, como el análisis de inteligencia, la modelización y la simulación, la planificación operativa, las operaciones cibernéticas y otras».

Pero, entre bastidores, el Gobierno de EE. UU. solicitaba aún más aplicaciones, y englobó todas sus peticiones bajo un término amplio y vago: «Cualquier uso lícito». Anthropic se mostró indignada ante la petición del Gobierno y definió dos casos de uso que quedaban totalmente fuera de los límites: la vigilancia masiva de los estadounidenses y las armas totalmente autónomas —o, dicho de otro modo, la creación de robots asesinos independientes—.

Tal y como señaló Anthropic en su comunicado:

«Los sistemas de IA de Frontier simplemente no son lo suficientemente fiables como para equipar armas totalmente autónomas. No vamos a suministrar a sabiendas un producto que ponga en peligro a los combatientes y a los civiles estadounidenses. Nos hemos ofrecido a colaborar directamente con el Departamento de Defensa en materia de I+D para mejorar la fiabilidad de estos sistemas, pero no han aceptado esta oferta. Además, sin una supervisión adecuada, no se puede confiar en que las armas totalmente autónomas ejerzan el juicio crítico que nuestras tropas profesionales y altamente entrenadas demuestran cada día. Deben desplegarse con los controles de seguridad adecuados, que hoy en día no existen».

Claro, puede que hoy en día no existan esas barreras de seguridad, pero ¿existen —o pueden existir— en absoluto?

Hoy, en el podcast «Lock and Code», presentado por David Ruiz, hablamos con Peter Asaro, presidente de la Campaña para Detener a los Robots Asesinos, sobre qué es realmente un robot asesino, cuán cerca estamos de verlos en acción y cuáles son algunas de las consecuencias ocultas de implantar una tecnología capaz de tomar decisiones a una velocidad increíble en un contexto en el que la desescalada requiere tiempo, espacio y criterio humano.

 «Esta proliferación masiva de objetivos no hace más que acelerar la velocidad y la intensidad de la destrucción en la guerra, y no supone necesariamente ninguna ventaja militar o política».

Sintoniza hoy para escuchar la conversación completa.

Mostrar notas y créditos:

Música de introducción: «Spellbound», de Kevin MacLeod (incompetech.com)
Con licencia Creative Commons: Atribución 4.0
http://creativecommons.org/licenses/by/4.0/
Música de cierre: «Good God», de Wowa (unminus.com)


Escucha:Malwarebytes solo habla de ciberseguridad, sino que la proporciona.

Protéjase de los ataques en línea que amenazan su identidad, sus archivos, su sistema y su bienestar financiero con nuestraoferta exclusiva de Malwarebytes Premium para los oyentes de Lock and Code.

Acerca del autor