Killerroboter sind da. Was nun? (Lock and Code, Staffel 7, Folge 7)

| 5. April 2026
Ein abgebildetes Vorhängeschloss ist in einen Mikrofonständer eingebaut, wobei Schallwellen von dem Gerät ausgehen.

Diese Woche im Lock and Code-Podcast…

Wir müssen über Killerroboter sprechen. Nein, nicht über den Terminator und auch nicht über einen Roboter von Boston Dynamics, der Amok läuft. Wir müssen vielmehr über eine technologische Realität sprechen, die bereits in vollem Gange ist.

Ende Februar gab der KI-Entwickler Anthropic eine Erklärung ab, die für diejenigen, die das Unternehmen nur von seinem hilfreichen Chatbot „Claude“ kennen, vielleicht überraschend kam: Das Unternehmen würde der Regierung nicht gestatten, seine Technologie ohne angemessene Sicherheitsvorkehrungen zum Töten von Menschen einzusetzen.

Moment mal… was?

Obwohl Anthropic in der breiten Öffentlichkeit vor allem als Entwickler eines kollaborativen, KI-gestützten Assistenten für Programmierung, Texterstellung und Recherche bekannt ist, hatte das Unternehmen Claude bereits für strategische militärische Zwecke in der gesamten US-Regierung eingesetzt. Nach Angaben von Anthropic wurde Claude vom US-Verteidigungsministerium und anderen nationalen Sicherheitsbehörden für „missionskritische Anwendungen wie Geheimdienstanalysen, Modellierung und Simulation, Einsatzplanung, Cyberoperationen und vieles mehr“ genutzt.

Hinter den Kulissen forderte die US-Regierung jedoch noch mehr Anwendungsfälle und fasste all ihre Anforderungen unter einem weit gefassten, vagen Begriff zusammen: „Jede rechtmäßige Nutzung“. Anthropic reagierte empört auf die Forderung der Regierung und legte zwei Anwendungsfälle fest, die kategorisch ausgeschlossen waren: die Massenüberwachung von US-Bürgern und vollständig autonome Waffen – oder, anders ausgedrückt, die Steuerung unabhängiger Killerroboter.

Wie Anthropic in seiner Erklärung sagte:

„Frontier-KI-Systeme sind schlichtweg nicht zuverlässig genug, um vollständig autonome Waffen zu steuern. Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Soldaten und Zivilisten in Gefahr bringt. Wir haben angeboten, bei Forschung und Entwicklung direkt mit dem Verteidigungsministerium zusammenzuarbeiten, um die Zuverlässigkeit dieser Systeme zu verbessern, doch dieses Angebot wurde nicht angenommen. Darüber hinaus kann man sich ohne angemessene Aufsicht nicht darauf verlassen, dass vollautonome Waffen das kritische Urteilsvermögen an den Tag legen, das unsere hochqualifizierten, professionellen Soldaten tagtäglich unter Beweis stellen. Sie müssen mit angemessenen Sicherheitsvorkehrungen eingesetzt werden, die es heute noch nicht gibt.“

Sicher, diese Leitplanken gibt es heute vielleicht noch nicht, aber gibt es sie überhaupt – können sie überhaupt existieren?

Heute sprechen wir im Podcast „Lock and Code“ mit Moderator David Ruiz mit Peter Asaro, dem Vorsitzenden der „Campaign to Stop Killer Robots“, darüber, was ein Killerroboter eigentlich ist, wie nah wir seinem Einsatz bereits sind und welche versteckten Folgen die Einführung einer Technologie mit unglaublich schneller Entscheidungsfindung in einem Umfeld haben kann, in dem Deeskalation Zeit, Raum und menschliches Urteilsvermögen erfordert.

 „Diese massive Zunahme an Zielen beschleunigt lediglich das Tempo und die Intensität der Zerstörung im Krieg, verschafft einem aber nicht unbedingt irgendeinen militärischen oder politischen Vorteil.“

Schalten Sie heute ein, um das gesamte Gespräch zu hören.

Anmerkungen und Credits anzeigen:

Intro-Musik: „Spellbound“ von Kevin MacLeod (incompetech.com)
Lizenziert unter Creative Commons: By Attribution 4.0 License
http://creativecommons.org/licenses/by/4.0/
Outro-Musik: „Good God“ von Wowa (unminus.com)


Hören Sie zu –Malwarebytes redetMalwarebytes nur über Cybersicherheit, wir bieten sie auch.

Schützen Sie sich vor Online-Angriffen, die Ihre Identität, Ihre Dateien, Ihr System und Ihr finanzielles Wohlergehen gefährden, mit unseremexklusiven Angebot für Malwarebytes Premium für Lock and Code-Hörer.

Über den Autor