今週の「ロック・アンド・コード」ポッドキャストでは…
殺人ロボットについて話さなければならない。いや、『ターミネーター』の話でも、ボストン・ダイナミクスのロボットが暴走した話でもない。むしろ、すでに現実のものとなっている技術的な現実について話さなければならないのだ。
2月下旬、人工知能開発企業のAnthropicは、同社の便利なチャットボットツール「Claude」しか知らない人々にとっては意外に思えるかもしれない声明を発表した。同社は、適切な安全対策が講じられていない限り、政府が自社の技術を用いて人を殺害することを許可しないと述べたのである。
ちょっと待って……えっ?
一般の人々の間では、Anthropicはコーディング、執筆、検索のためのAI搭載コラボレーションアシスタントの開発元として知られているが、同社はすでに戦略的な軍事ニーズに応えるため、米国政府全体にClaudeを導入していた。Anthropicによると、Claudeは米国防総省やその他の国家安全保障機関において、「情報分析、モデリングおよびシミュレーション、作戦計画、サイバー作戦など、任務の成否を左右する重要な用途」に活用されていたという。
しかし、その裏では、米国政府はさらに多くのアプリケーションを求めており、その要求をすべて「あらゆる合法的な用途」という広範かつ曖昧な表現でまとめていた。Anthropic社はこの政府の要求に反発し、絶対に認めない2つのユースケースを明確に定義した。それは、米国市民に対する大規模監視と、完全自律型兵器――言い換えれば、自律型殺戮ロボットの稼働である。
Anthropicが声明で述べたように:
「フロンティアAIのシステムは、完全自律型兵器を駆動させるには、単に信頼性が不十分です。私たちは、米国の戦闘員や民間人を危険にさらすような製品を、承知の上で提供するつもりはありません。 当社は、これらのシステムの信頼性を向上させるため、国防総省と直接連携して研究開発を行うことを提案しましたが、同省はこの提案を受け入れていません。さらに、適切な監督体制がなければ、完全自律型兵器が、高度な訓練を受けたプロの兵士たちが日々発揮しているような重要な判断を下すことは期待できません。これらを配備するには適切な安全装置が必要ですが、現時点ではそのようなものは存在しません。」
確かに、今のところそのような安全策は存在しないかもしれないが、そもそもそれらは存在するのだろうか――あるいは、存在し得るのだろうか?
本日、ホストのデビッド・ルイスが司会を務めるポッドキャスト『Lock and Code』では、「キラーロボット阻止キャンペーン」の代表であるピーター・アサロ氏をゲストに迎え、キラーロボットとは実際にどのようなものなのか、その実用化がどれほど目前に迫っているのか、そして、事態の沈静化には時間と空間、そして人間の判断が必要とされる状況下で、信じられないほど高速な意思決定技術を導入することによる隠れた影響について語り合います。
「標的がこれほどまでに急増することは、戦争における破壊の速度と激しさを加速させるだけであり、必ずしも軍事的あるいは政治的な優位性をもたらすわけではない。」
本日、対話の全編をお聴き逃しなく。
番組ノートとクレジット:
イントロ音楽: 「Spellbound」 by Kevin MacLeod (incompetech.com)
クリエイティブ・コモンズ 表示 4.0 ライセンスの下で提供されています
http://creativecommons.org/licenses/by/4.0/
アウトロ音楽: 「Good God」 by Wowa (unminus.com)
よく聞いて——Malwarebytes サイバーセキュリティについて語るだけでなく、それを提供します。
Malwarebytes Premium 特別オファーで、オンライン攻撃から身を守りましょう。あなたの身元、ファイル、システム、そして経済的安定を脅かす脅威から保護します。本オファーは「Lock and Code」リスナー限定です。




