一方、こうしたAIが次々と進化、普及していくかというと、話はそう簡単ではありません。例えば「トロッコ問題」と言われる有名な問題があります。これはもしAIが、どういう行動を選択しても必ず犠牲者が出る「倫理的なジレンマ」に遭遇した場合、どうするのかという問題です。
自動運転車のAIが、峠道に差しかかったとき、ブレーキをかけても間に合わないタイミングで人間が飛び出してきて、そのままではひき殺してしまう。
急ハンドルを切れば避けられる代わりに、必ずその車自身はがけ下に転落するので搭乗者は死ぬ。どちらを選びますか、といったような問題です。もし仮に、目の前に飛び出してきた人が10人だったら? それでも搭乗者を守りますか?
特に事前の決めごとがない場合、やはりAIは犠牲が最も少ない合理的な判断をするのでしょうか。もしそれで死んだ「最小の犠牲者」が、自分の最愛の娘だったら、あなたはどう感じますか。
だいぶ意地悪な話ですが、レールの上を走り、交差点のような個所も少ない鉄道でさえ、自動運転が普及しにくい状況の根っこにあるのは、実はこの感情の部分でしょう。
自動運転車は、もし成熟すれば確実に人間の運転よりも事故を起こしにくいのだろうとは思うのですが、それでもゼロにはなかなかならないだろうとも思えます。
そして、もし自動運転車が上記のような判断で人を殺してしまった場合、世間は人間のドライバーが起こした事故とは比較にもならない大騒ぎになるように思います。糾弾する人、廃止論、損害賠償、だれもAIに「同情」なんてしないでしょうから。
このように、自動運転車ではよく例示として挙げられる問題ですが、次はネットワークセキュリティとAIについて考えてみましょう。
例えば、大手オンラインショップのシステムをつかさどっているAIがウェブサーバへの攻撃を検知したとします。
かなり厄介な攻撃者で、このままだと顧客情報がごっそり盗まれるとして、攻撃を止めるにはすぐにでも外部との通信を遮断してオンラインショップを一時ダウンさせる必要がある、といった二択にもしもなった場合、どうするか。