Deze week in de Lock and Code-podcast...
We moeten het eens hebben over moordrobots. Nee, niet de Terminator, en ook niet zo’n robot van Boston Dynamics die op hol slaat. We moeten het juist hebben over een technologische realiteit die nu al volop aanwezig is.
Eind februari deed Anthropic, een ontwikkelaar van kunstmatige intelligentie, een uitspraak die wellicht verrassend klonk voor wie het bedrijf alleen kent van zijn handige chatbot Claude: het bedrijf zou de overheid niet toestaan zijn technologie te gebruiken om mensen te doden zonder de nodige veiligheidsmaatregelen.
Wacht even… wat?
Hoewel Anthropic bij het grote publiek vooral bekendstaat als de maker van een op AI gebaseerde assistent voor programmeren, schrijven en zoeken, had het bedrijf Claude al ingezet binnen de Amerikaanse overheid voor strategische militaire doeleinden. Volgens Anthropic werd Claude door het Amerikaanse Ministerie van Defensie en andere nationale veiligheidsdiensten gebruikt voor „missiekritische toepassingen, zoals inlichtingenanalyse, modellering en simulatie, operationele planning, cyberoperaties en meer.“
Maar achter de schermen vroeg de Amerikaanse regering om nog meer toepassingen, en ze vatte al haar verzoeken samen onder een brede, vage noemer: „elk wettig gebruik“. Anthropic reageerde geprikkeld op het verzoek van de regering en stelde twee gebruiksscenario’s vast die absoluut uitgesloten waren: massale surveillance van Amerikanen en volledig autonome wapens – of, anders gezegd, het aansturen van zelfstandige moordrobots.
Zoals Anthropic in zijn verklaring zei:
“Frontier AI-systemen zijn simpelweg niet betrouwbaar genoeg om volledig autonome wapens aan te sturen. We zullen niet bewust een product leveren dat Amerikaanse militairen en burgers in gevaar brengt. We hebben aangeboden om rechtstreeks met het Ministerie van Defensie samen te werken aan onderzoek en ontwikkeling om de betrouwbaarheid van deze systemen te verbeteren, maar zij hebben dit aanbod niet aanvaard. Bovendien kan men er zonder adequaat toezicht niet op vertrouwen dat volledig autonome wapens het kritische oordeel kunnen uitoefenen dat onze hoogopgeleide, professionele troepen dagelijks aan de dag leggen. Ze moeten worden ingezet met de juiste veiligheidsmaatregelen, die op dit moment niet bestaan.”
Natuurlijk, die vangrails bestaan vandaag misschien niet, maar bestaan ze – kunnen ze überhaupt bestaan?
Vandaag spreken we in de podcast „Lock and Code“ met presentator David Ruiz met Peter Asaro, voorzitter van de „Campaign to Stop Killer Robots“, over wat een moordrobot nu eigenlijk is, hoe dicht we bij de inzet ervan staan, en wat enkele van de verborgen gevolgen zijn van de invoering van technologie die onmogelijk snel beslissingen neemt in een omgeving waar de-escalatie tijd, ruimte en menselijk inzicht vereist.
”Deze enorme toename van het aantal doelen versnelt alleen maar de snelheid en de intensiteit van de verwoesting die oorlog met zich meebrengt, en levert je niet per se enig militair of politiek voordeel op.”
Luister vandaag nog naar het volledige gesprek.
Aantekeningen en credits weergeven:
Intro-muziek: "Spellbound" door Kevin MacLeod (incompetech.com)
Gelicentieerd onder Creative Commons: By Attribution 4.0 License
http://creativecommons.org/licenses/by/4.0/
Outro-muziek: "Good God" door Wowa (unminus.com)
Luister goed:Malwarebytes praatMalwarebytes alleen over cyberbeveiliging, wij bieden het ook.
Bescherm uzelf tegen online aanvallen die uw identiteit, uw bestanden, uw systeem en uw financiële welzijn bedreigen met onzeexclusieve aanbieding voor Malwarebytes Premium voor luisteraars van Lock and Code.




