人類は「AI兵器」の脅威を防げるか
© atomixmedia,inc 提供 慈悲の心を一切持たないマシンが、マシンの判断だけで次々と人を殺す──「完全自律型AI兵器」が実現した未来を想像してみてください。まさに背筋が凍ります。しかし、世界がこうした兵器の開発を止めない限り、それはそう遠くない未来の現実です。
「キラーロボット(殺傷ロボット)」として知られる完全自律型AI兵器。人間による人道的・倫理的判断を介さずに、自らの判断で標的を定め、人を殺傷することができる人工知能を搭載したロボットのことで、米国・中国・イスラエル・韓国・ロシア・英国などを含む、十数カ国以上が開発中です。
AI兵器開発が進む中で、殺害の標的選択と攻撃における人間の役割がどんどん小さくなっています。そのうち、標的選択と攻撃という重要な判断に人間が一切関与しなくなり、マシンがこれに替わることになるでしょう。その時が、完全自律型AI兵器の登場です。
ヒューマン・ライツ・ウォッチが最近の報告書で明らかにしたとおり、こうした完全自律型AI兵器の使用は、道徳的な一線を越えるでしょう。ひとたび作動させれば、人間の介入なしに標的を定めて攻撃する未来兵器の人道的リスクと安全保障上のリスクは、あらゆる軍事的利益の可能性を上回ると考えられます。
8月にはテスラ・モーターズのイーロン・マスクCEOほか、人工知能およびロボティクス企業の創設者115人も公開書簡を発表し、完全自律型AI兵器の開発及び使用を止めるための外交上のアクションを呼びかけました。
マスクらはこの公開書簡の中で、完全自律型AI兵器は、(銃、核兵器に続く)「戦争に第三の革命をもたらす」と警告。「我々は、自律兵器に転用される可能性のある人工知能やロボット工学のテクノロジーを構築する企業として、この警告を発する責任を特に感じる」と記しています。
これまで、完全自律型AI兵器の規制や禁止に世界各国が同意するのかと疑問を投げかける声はありました。禁止条約の実行性に疑問を抱く人もいます。しかし、意味のある人間のコントロールが欠けた兵器システムの規制なき開発を支持するまっとうな論証を示した人はいません。
ヒューマン・ライツ・ウォッチをはじめとする世界各国の市民社会は2013年4月、完全自律AI兵器を先制的に禁止するため、「ストップ・キラーロボット」キャンペーンを設立しました。以来4年以上にわたって世界各国の政府に対し、禁止条約制定に向けた道筋を示すとともに、兵器システムを人間がコントロールする必要性を粘り強く説明してきています。
これは道義的な義務であるとともに、国際法を守り、その違反の責任を問うためにも必要不可欠です。国際法違反でロボットを法廷に立たせることに意味はなく、戦争の残虐性の歯止めとなる国際法の意味がなくなる危険性があるからです。
「ストップ・キラーロボット」キャンペーンの働きかけなどの結果、各国は特定通常兵器使用禁止制限条約(CCW)の下で、非公式に議論を始めました。そして、3年を経て、昨年末には突破口が見えたかに思われました。協議の公式化が決まったからです。
しかしながら、ブラジルなど一握りの国々がCCWへの拠出金を支払っていないという理由で、この8月に予定されていたCCWの公式会合はキャンセルされてしまいました。そして、2016年4月以来1年半という国際会議のブランクを経てこの11月、CCWがやっと公式会合を開催します。
この11月の会合に向けて、日本政府など各国は、完全自律型AI兵器を先制的に禁止する国際条約に向けて歩みを進めるべきです。ためらっている時間はありません。
日本政府は、完全自律型AI兵器の開発の意図はないと明らかにしているものの、禁止条約に前向きとは言えません。技術先進国でありながら、完全自律型AI兵器の開発の意図がないと明言した日本は、その先制的禁止への支持を表明し、条約交渉に向けたリーダーになるべきではないでしょうか。「第三の兵器革命」を止めることは、第二の革命といわれる核兵器の惨禍を経験した日本にこそ相応しい、子どもたちそして未来の人類に向けたかけがえのない贈り物なのです。
Category: News, Technology
