Esta semana, no podcast Lock and Code...
Temos de falar sobre robôs assassinos. Não, não é o Exterminador do Futuro, nem um robô da Boston Dynamics que se descontrolou. Temos, sim, de falar sobre uma realidade tecnológica que já está bem presente entre nós.
No final de fevereiro, a Anthropic, empresa desenvolvedora de inteligência artificial, fez uma declaração que talvez tenha surpreendido quem só conhece o seu útil chatbot, o Claude: a empresa não permitiria que o governo utilizasse a sua tecnologia para matar pessoas sem os devidos controlos de segurança.
Espera aí… o quê?
Apesar da reputação da Anthropic entre a maioria das pessoas como criadora de um assistente colaborativo baseado em IA para programação, redação e pesquisa, a empresa já tinha implementado o Claude em todo o governo dos EUA para fins militares estratégicos. Segundo a Anthropic, o Claude foi utilizado pelo Departamento de Defesa dos EUA e por outras agências de segurança nacional para «aplicações críticas para a missão, tais como análise de informações, modelação e simulação, planeamento operacional, operações cibernéticas e muito mais».
Mas, nos bastidores, o governo dos EUA estava a solicitar ainda mais aplicações, e agrupou todos os seus pedidos sob um termo amplo e vago: «Qualquer utilização legal». A Anthropic reagiu com indignação ao pedido do governo, definindo dois casos de utilização que estavam simplesmente fora de questão: a vigilância em massa de cidadãos americanos e as armas totalmente autónomas — ou, por outras palavras, o desenvolvimento de robôs assassinos independentes.
Como a Anthropic afirmou no seu comunicado:
«Os sistemas de IA da Frontier simplesmente não são suficientemente fiáveis para equipar armas totalmente autónomas. Não forneceremos, conscientemente, um produto que coloque em risco os combatentes e os civis americanos. Oferecemos trabalhar diretamente com o Departamento de Guerra em I&D para melhorar a fiabilidade destes sistemas, mas eles não aceitaram esta oferta. Além disso, sem uma supervisão adequada, não se pode confiar que as armas totalmente autónomas exerçam o julgamento crítico que as nossas tropas profissionais e altamente treinadas demonstram todos os dias. Elas precisam de ser implementadas com mecanismos de proteção adequados, que hoje não existem.»
Claro, talvez essas barreiras de proteção não existam hoje, mas será que elas existem — ou podem existir — de todo?
Hoje, no podcast «Lock and Code», apresentado por David Ruiz, conversamos com Peter Asaro, presidente da Campanha para Acabar com os Robôs Assassinos, sobre o que é, na verdade, um robô assassino, quão perto estamos de os ver em ação e quais são algumas das consequências ocultas da implementação de uma tecnologia de tomada de decisões incrivelmente rápida num contexto em que a desescalada requer tempo, espaço e discernimento humano.
«Esta proliferação em massa de alvos apenas acelera a velocidade e a intensidade da destruição causada pela guerra, sem que isso traga necessariamente qualquer tipo de vantagem militar ou política.»
Sintonize hoje para ouvir a conversa completa.
Mostrar notas e créditos:
Música de introdução: “Spellbound” por Kevin MacLeod (incompetech.com)
Licenciada sob Creative Commons: Por Atribuição 4.0 Licença
http://creativecommons.org/licenses/by/4.0/
Música de encerramento: “Good God” por Wowa (unminus.com)
Ouça bem:Malwarebytes fala apenas sobre segurança cibernética, nós a fornecemos.
Proteja-se contra ataques online que ameaçam a sua identidade, os seus ficheiros, o seu sistema e o seu bem-estar financeiro coma nossaoferta exclusiva do Malwarebytes Premium para os ouvintes do Lock and Code.




