Questa settimana nel podcast Lock and Code...
Dobbiamo parlare dei robot assassini. No, non di Terminator, né di qualche robot della Boston Dynamics impazzito. Dobbiamo invece parlare di una realtà tecnologica che è già ben presente.
Alla fine di febbraio, Anthropic, azienda specializzata nello sviluppo di intelligenza artificiale, ha rilasciato una dichiarazione che potrebbe sorprendere chi conosce solo il suo utile chatbot Claude: l’azienda non consentirebbe al governo di utilizzare la propria tecnologia per uccidere persone senza adeguati controlli di sicurezza.
Aspetta… cosa?
Nonostante la reputazione di Anthropic tra la maggior parte delle persone comuni come creatrice di un assistente collaborativo basato sull'intelligenza artificiale per la programmazione, la scrittura e la ricerca, l'azienda aveva già implementato Claude in tutto il governo degli Stati Uniti per esigenze militari strategiche. Secondo Anthropic, Claude è stato utilizzato dal Dipartimento della Difesa degli Stati Uniti e da altre agenzie di sicurezza nazionale per «applicazioni di importanza cruciale, quali l'analisi delle informazioni, la modellizzazione e la simulazione, la pianificazione operativa, le operazioni informatiche e altro ancora».
Ma dietro le quinte, il governo statunitense chiedeva un numero ancora maggiore di applicazioni, racchiudendo tutte le sue richieste sotto un termine ampio e vago: «Qualsiasi uso legittimo». Anthropic reagì con sdegno alla richiesta del governo, definendo due casi d’uso che erano semplicemente off-limits: la sorveglianza di massa dei cittadini americani e le armi completamente autonome — o, in altre parole, l’alimentazione di robot killer indipendenti.
Come ha affermato Anthropic nel proprio comunicato:
«I sistemi di intelligenza artificiale di Frontier non sono semplicemente abbastanza affidabili per alimentare armi completamente autonome. Non forniremo consapevolmente un prodotto che metta a rischio i militari e i civili americani. Abbiamo offerto di collaborare direttamente con il Dipartimento della Difesa alla ricerca e sviluppo per migliorare l’affidabilità di questi sistemi, ma l’offerta non è stata accettata. Inoltre, senza un’adeguata supervisione, non ci si può fidare delle armi completamente autonome per esercitare quel giudizio critico che le nostre truppe, altamente addestrate e professionali, dimostrano ogni giorno. Devono essere impiegate con adeguati sistemi di controllo, che oggi non esistono.”
Certo, forse oggi quelle barriere di sicurezza non esistono, ma esistono davvero? O possono esistere?
Oggi, nel podcast «Lock and Code» condotto da David Ruiz, parliamo con Peter Asaro, presidente della «Campaign to Stop Killer Robots», di cosa sia effettivamente un robot killer, di quanto siamo vicini alla loro diffusione e di quali siano alcune delle conseguenze nascoste dell’introduzione di una tecnologia in grado di prendere decisioni con una rapidità incredibile in un contesto in cui la de-escalation richiede tempo, spazio e giudizio umano.
«Questa proliferazione massiccia di obiettivi non fa altro che accelerare la velocità e l'intensità della distruzione in guerra, senza necessariamente garantire alcun vantaggio militare o politico.»
Sintonizzati oggi per ascoltare l'intera conversazione.
Mostra note e crediti:
Musica di introduzione: “Spellbound” di Kevin MacLeod (incompetech.com)
Licenza Creative Commons: Attribuzione 4.0
http://creativecommons.org/licenses/by/4.0/
Musica di chiusura: “Good God” di Wowa (unminus.com)
Ascoltate bene:Malwarebytes a parlare di sicurezza informatica, ma la garantisce.
Proteggiti dagli attacchi online che minacciano la tua identità, i tuoi file, il tuo sistema e il tuo benessere finanziario conla nostraofferta esclusiva per Malwarebytes Premium riservata agli ascoltatori di Lock and Code.




