Esta semana, no podcast Lock and Code...
Precisamos falar sobre robôs assassinos. Não, não é o Exterminador do Futuro, nem algum robô da Boston Dynamics que enlouqueceu. Precisamos falar, na verdade, sobre uma realidade tecnológica que já está bem presente entre nós.
No final de fevereiro, a Anthropic, empresa desenvolvedora de inteligência artificial, fez uma declaração que talvez tenha surpreendido aqueles que conhecem apenas seu útil chatbot, o Claude: a empresa não permitiria que o governo utilizasse sua tecnologia para matar pessoas sem os devidos controles de segurança.
Espere aí… o quê?
Apesar de a Anthropic ser conhecida pela maioria das pessoas como a criadora de um assistente colaborativo baseado em IA para programação, redação e pesquisa, a empresa já havia implantado o Claude em todo o governo dos Estados Unidos para atender a necessidades militares estratégicas. De acordo com a Anthropic, o Claude foi utilizado pelo Departamento de Defesa dos Estados Unidos e por outras agências de segurança nacional para “aplicações de missão crítica, tais como análise de inteligência, modelagem e simulação, planejamento operacional, operações cibernéticas e muito mais”.
Mas, nos bastidores, o governo dos EUA estava solicitando ainda mais aplicações e agrupou todos os seus pedidos sob um termo amplo e vago: “Qualquer uso lícito”. A Anthropic reagiu com indignação ao pedido do governo, definindo dois casos de uso que estavam simplesmente fora de questão: a vigilância em massa de cidadãos americanos e armas totalmente autônomas — ou, em outras palavras, o desenvolvimento de robôs assassinos independentes.
Como a Anthropic afirmou em seu comunicado:
“Os sistemas de IA da Frontier simplesmente não são confiáveis o suficiente para equipar armas totalmente autônomas. Não forneceremos, conscientemente, um produto que coloque em risco os combatentes e civis dos Estados Unidos. Oferecemos trabalhar diretamente com o Departamento de Defesa em pesquisa e desenvolvimento para melhorar a confiabilidade desses sistemas, mas eles não aceitaram essa oferta. Além disso, sem supervisão adequada, não se pode confiar que armas totalmente autônomas exerçam o julgamento crítico que nossas tropas profissionais e altamente treinadas demonstram todos os dias. Elas precisam ser implantadas com proteções adequadas, que não existem atualmente.”
Claro, talvez essas barreiras de proteção não existam hoje, mas será que elas existem — ou podem existir — de fato?
Hoje, no podcast “Lock and Code”, apresentado por David Ruiz, conversamos com Peter Asaro, presidente da Campanha para Acabar com os Robôs Assassinos, sobre o que realmente é um robô assassino, quão perto estamos de vê-los em ação e quais são algumas das consequências ocultas da implantação de uma tecnologia de tomada de decisão incrivelmente rápida em um contexto em que a redução da tensão exige tempo, espaço e julgamento humano.
“Essa proliferação em massa de alvos apenas acelera a velocidade e a intensidade da destruição causada pela guerra, sem necessariamente proporcionar qualquer tipo de vantagem militar ou política.”
Sintonize hoje para ouvir a conversa completa.
Mostrar notas e créditos:
Música de introdução: “Spellbound” por Kevin MacLeod (incompetech.com)
Licenciada sob Creative Commons: Por Atribuição 4.0 Licença
http://creativecommons.org/licenses/by/4.0/
Música de encerramento: “Good God” por Wowa (unminus.com)
Preste atenção:Malwarebytes a falar sobre segurança cibernética, nós a fornecemos.
Proteja-se contra ataques online que ameaçam sua identidade, seus arquivos, seu sistema e seu bem-estar financeiro com nossaoferta exclusiva do Malwarebytes Premium para os ouvintes do Lock and Code.




