グレッグ・コラード氏は、AIシステムの説明責任について、AIシステムがテーマをもって何を達成するのかしっかりと打ち出すことが重要であると強調した。
例えば、遠隔地のメンバー同士をつなぐ「テレプレゼンス」による外科システムはAIによりどこまで期待できるのか、それに答えることができるのかが重要であると述べた。
東京大学大学院法学政治学研究科教授 宍戸 常寿氏
宍戸氏は、AIの倫理的な課題については、AIが人間の能力を上回る能力で人間の尊厳に影響をあたえる場合や、人間がAIシステムを使って生じる問題もあれば、AI自身が露骨に問題を生じさせる場合など、さまざまなケースが想定されるという。そのため、AIに対して倫理性をもたせたほうがよいという意見もあり、AIに倫理性をもたせることを恐れる必要はないものの、AIによるどのようなリスクがあるのか分析し、適正に対処する必要がある点も指摘した。
会場からは、AIによるシステムの安全性をどこまで完全にすればいいのか。システムが安全でなければ、保険などどのような社会制度で補う必要があるといった質問が出た。
宍戸氏は、どこまでの安全性を求めるかについては、相関関係で考え、重大性をみて安全性を確保するアプローチを示した。保険については、被害が保証されるわけではなく、経済的なインセンティブを行動者に与えることによって、問題があったときに保険がおりるなど、技術と社会制度をからめて、解決していく必要があると述べた。
ロバート・ブレイ氏は、EUでも議論しており、全体として、AIによるリスクの軽減に保険システムを導入することが好ましいと考えているという。ロボットを購入した場合、業界全体で保険をかけるといったように、何年かかけて保険システムのフレームワークをつくる必要性を述べた。
ジャン・タリン氏は、人間がつくったシステムか、AI自身が学習したシステムかを区別しなければいけないとし、AIが自ら学習するシステムは、従来の人間向けの法律では対応できない場合もあるといった問題性を指摘した。
地球規模の課題をどう解決してくいくかについて、グレッグ・コラード氏は、地球規模での長期的な方針を考えることは重要だが、近未来の予測が必要であり、人々の能力をどこまで補完できるのか、今後20年において重要になると述べた。
最後にパネリストからまとめのコメントがあった。
ロバート・ブレイ氏は、より多くの情報と、ネットワークを通じた対話を進めていくことが重要であり、テクノロジだけでなく、教育や医療など、日々の一般の人たちにどのような影響を与えるのか、考えていく必要性を示した。
ベネデッタ・アレーゼ・ルチーニ氏は、技術的な革新は恐れを生み出すが、これまでの歴史を振り返ると大きなチャンスもあると述べた。AIによる貧富の格差が生じる可能性もあり、富の分配をきちんとしていくことの重要性も指摘した。
ジャン・タリン氏は、システムがパワフルになるほど、ジェネラルプロセス(一般過程)を考える必要があり、Future of Life Instituteで公開している23の原則「ASILOMAR AI PRINCIPLES」を考えていく必要があると述べた。
総務省情報通信国際戦略局長 谷脇 康彦氏
アン・カブラン氏はAIが社会にどのような影響を持つのか、考えなければならないとし、
- コラボレーションの確保(関係者、アクター、すべての国)
- 透明性の確保(情報にアクセスする権利)
- アクセスの確保
の3つの重要性を強調した。
堀氏は、オープンな対話を違うセクター間でやっていくことが重要であり、若年層の参加も促すことも重要である強調した。
宍戸氏は、すべての人が平等にAIの便益を得ることが重要であり、一つの方向に向かうのではなく、文化の多様性、個々の人間の自律が確保できるようにしてくことの重要性を述べた。
最後に、谷脇氏は、AIの、ポジティブなメリットを討議し、メリットとリスクとのバランスをとった議論が重要であると述べ、議論を締めくくった。