人間がチームで何かに取り組んでいる時には、その和を乱さないよう、ささやかな嘘をつく場合もある。このような人の行動は、たいていの場合において容認される。しかし、人工知能(AI)ボットが嘘をついた場合、あるいは嘘をつくように命じられた場合はどうだろうか?
さらに重要な疑問もある。もしAIボットが人間に嘘をつけるのならば、それが他愛もない嘘だったとしても、信頼関係にどのような影響が及ぶのだろうか?また、嘘をついてもよいという許可がAIボットに与えられている場合、その嘘がボットのためではなく、人間のためだというのはどのようにして判断できるのだろうか?
アリゾナ州立大学のコンピュータ科学者であるTathagata Chakraborti氏とSubbarao Kambhampati氏は、最近執筆した「Algorithms for the Greater Good!」(大義のためのアルゴリズム)という論文のなかで、人間とAIによる効率的なコラボレーションについて論じている。両氏の主張は、賢いAIを作り上げるだけでは不十分だというものだ。深刻な問題が引き起こされないようにするには、AIボットが多様な文化的規範を含む、人間のさまざまな知性と適切なかたちで連携できるよう保証することがAI開発において必要となる。
両氏は、問題を以下のように表現している。
人間と、AIベースのシステムの間の効率的なコラボレーションを実現するには、一連のプロセスのなかで人間というものを効率的なかたちでモデル化する必要がある(中略)しかし、そのような(人間の)モデル化によって、AIと人間の意図や価値が一致していない場合や、知識や計算能力の面で相互の関係が非対称となっている場合、人を操り、搾取する道が開かれてしまう可能性もある。
IBMやIntel、NVIDIAが、このまま開発を進めていけば、「知識や計算能力における非対称な関係」は拡大する一方になる。ボットが数千機にも及ぶドローンを操り、数km四方のエリアを監視するようになったり、エクサバイト規模の関連情報や履歴を有するようになったりする、あるいはその双方が現実となる可能性もある。
私はAI。お前は人という名の操り人形
両氏は、都市部での捜索および救助活動という設定で、人間と人間、そして人間とAIとの間のやり取りを考察する思考実験を考え出した。そのシナリオは、地震で損傷を受けたビルのフロアを捜索するというものだ。両氏は、Amazonのクラウドソーシングマーケットプレイスである「Amazon Mechanical Turk」を通じて集めた147人の協力を得て、やり取りの相手が人かAIかによって態度がどのように変わるのかを調査した。