このシナリオでは、信念の形成や、モデルの差異、スティグマージックコラボレーション(自発的かつ間接的な協調行動)からのさまざまな影響が想定されている。
これらは机上の懸念ではない。例えば、医師が守るべき倫理綱領のなかに、「患者に接する際にはほとんどのものごとを」隠しておくというものがある。これは患者のためを思ってなされることだが、医療用AIが患者や医師に対して情報を隠ぺいしている場合はどうなるのだろうか?
詳細な考察は論文に譲るものの、筆者が最も大きな懸念を抱いたのは、多くの人がAIに嘘をついても構わない、そして逆にAIに嘘をつかれても構わないとしている点だ。
その一方で、そう思わない人もたくさんいる。AI開発者はこうした点をどのようにモデル化するべきなのだろうか?
筆者の見解
新しいテクノロジは常に、予想もしなかった問題を伴ってやって来る。1800年代において、鉄道橋は近代技術の象徴としてもてはやされていたが、それは橋が次々と崩壊し、列車が乗客ともども橋から落下するという、悲惨な死亡事故が起こり始めるまでの話だった。金属疲労という言葉など、当時は誰も知らなかったのだ。現代のカナダのエンジニアたちは、自らの仕事には人の生命がかかっていることを忘れないよう、鉄製の指輪を授与されている。
土木工事に比べると、ソフトウェア開発にはもちろん、無秩序に積み上げられた規律がたくさん存在している。このため、AIによって大きな問題がもたらされるまで、せいぜいそのメリットを享受しておくことにしよう。
AIと人間の協力が不可欠な仕事では、追加訓練の必要性が明らかになるだろう。これは、警察犬の訓練がハンドラーを伴うのと同じような話だ。AIは信頼を必要としないかもしれないが、人間は、AIを使う人に限らず誰でも信頼を必要とするのだ。
また、社会もAIを信頼する必要がある。本来の意図がどうであれ、IT企業による過ちが、何度も繰り返されている現状を考えた場合、信頼を勝ち取るのは容易ではない。さらに、医師の場合と同様に、AIが人間に嘘をつくのが適切な状況も出てくるだろう。
AI企業が、FacebookやUberといった企業よりも上手に信頼を勝ち取ることに期待しよう。一連のプロセスのなかで人間というものを効率的なかたちでモデル化するという作業は、良いスタートと言えるだろう。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。