ICRACはその運動において、CCWによる自律型兵器のとらえ方にまつわる決定を、そうした兵器の禁止に向けた最初の1歩として利用していきたいと考えている。このアプローチは、失明をもたらすレーザー兵器が実戦配備の前に禁止されたことにつながった戦略と同じだ。
自律型兵器に関して実態に見合わないレベルの期待が抱かれる理由として、AIが実際よりもずっと有能であると信じ切っているという現実、あるいはSharkey氏が言うところの「SFの世界から抜け出てきた人工知能という文化的な神話」が挙げられる。この分野の研究者たちはAIというものについて、自ら思考する人間型のロボットを開発するというよりも、ずっとありふれた(しかし有用な)ものに取り組むプロジェクト作業であると表明している。
「いつの世にも、20年以内に感情のあるロボットが開発されるという展望を述べる人がいるが、(AI分野の)研究者に目を向けてみれば、そんなことを言っている人などいないと分かるはずだ。研究者らは地に足の付いた作業を進めている。AIというのはほとんどの場合、電話や自動車の奥深くなど、一見するだけではAIとは分からない分野のものを開発するうえでの実用的なテーマなのであり、われわれは常にそのような考え方で研究を進めているのだ」(Sharkey氏)
また、遠い未来にAIが成熟し、コンピュータシステムが戦争の原則に従えるようになったとしても、本質的な道徳的疑問は残るだろう。Sharkey氏は「責任の問題は依然として残り、人間を殺傷するうえでの決断も下してしまうような機械を自分たちが持ちたいのかどうかについて、道徳的な観点から結論を出さなければならないということになる」と述べている。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。
Keep up with ZDNet Japan
ZDNet JapanはFacebook、Twitter、RSS、メールマガジンでも情報を配信しています。