人工知能(AI)は、その開発や導入、仕様、利用法について概説した、透明性のある文書と共に提供すべきだと、IBM Researchが提言している。
IBM Researchは「Trusted AI(信頼できるAI)」を目指す取り組みの一環として、AIサービスの供給者適合宣言(SDoC)の作成を呼びかける論文を公表した。このSDoCは、性能、安全性、セキュリティに関する情報を含むものとなる。
実際のところ、こうした文書はほかの業界で存在する。多くの場合、任意で作成されているが、そうした取り組みによって標準が確立されることが多い。米環境保護庁(EPA)の「Energy Star」、米国消費者製品安全委員会による各種ガイドライン、金融業界の債権格付けなどが好例だ。AIのSDoCの場合、AIに関する安全性と実施した製品テスト、さらに基盤となるモデルの情報を概説したものになるだろう。
IBMの研究者チームは論文で、次のように述べている。
「AIサービスのSDoCは、性能、安全性、セキュリティに関するセクションを設ける。性能については、適切な精度とリスク対策を含める。安全性は、リスクおよび認識の不確実性を最小化する方法について取り上げ、説明責任、公正なアルゴリズム、コンセプトドリフトへの耐性を含める。セキュリティでは、敵対的な攻撃に対する堅牢性について触れる。さらにAIサービスを開発、トレーニング、導入した方法、テストで用いたシナリオ、想定外のシナリオで予測される反応、使用に適しているタスクと、使用すべきでないタスクを規定したガイドラインを含める」
理論的には、これらの文書によって、より流動的なAIサービスのマーケットプレイスが実現し、消費者とサプライヤー間の情報格差が縮小できる。IBM Researchは、SDoCの作成は任意であるべきだとしている。
SDoCの産物として、AIに対する信頼性の向上も期待できる。自動車のブレーキや飛行機の自動操縦が、問題なく動作するという消費者の信頼だ。そういった信頼は、標準化、透明性、テストがあってこそ、生まれるものだ。現在のAIサービスには、そのような信頼性が欠如しており、IBM Researchは「消費者はまだ、他の技術と同じようにAIを信頼するまでに至っていない」と指摘している。
IBM Researchはまた、次のように付け加えている。
「安全性とセキュリティの技術的な進歩は必要だが、AIに対する信頼を勝ち取るには不十分だ。進歩には、標準化された透明な方法で、サービスの性能レベルをそれらの観点から測定して、伝えることができる能力が伴わなければならない。それを実現する1つの方法となるのが、AIサービスのSDoCによる情報提供だ」
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。