AIが信頼されるには透明性ある情報提供が必要--IBM Research

Larry Dignan (ZDNET.com) 翻訳校正: 編集部

2018-08-27 13:25

 人工知能(AI)は、その開発や導入、仕様、利用法について概説した、透明性のある文書と共に提供すべきだと、IBM Researchが提言している。

 IBM Researchは「Trusted AI(信頼できるAI)」を目指す取り組みの一環として、AIサービスの供給者適合宣言(SDoC)の作成を呼びかける論文を公表した。このSDoCは、性能、安全性、セキュリティに関する情報を含むものとなる。

 実際のところ、こうした文書はほかの業界で存在する。多くの場合、任意で作成されているが、そうした取り組みによって標準が確立されることが多い。米環境保護庁(EPA)の「Energy Star」、米国消費者製品安全委員会による各種ガイドライン、金融業界の債権格付けなどが好例だ。AIのSDoCの場合、AIに関する安全性と実施した製品テスト、さらに基盤となるモデルの情報を概説したものになるだろう。

 IBMの研究者チームは論文で、次のように述べている。

 「AIサービスのSDoCは、性能、安全性、セキュリティに関するセクションを設ける。性能については、適切な精度とリスク対策を含める。安全性は、リスクおよび認識の不確実性を最小化する方法について取り上げ、説明責任、公正なアルゴリズム、コンセプトドリフトへの耐性を含める。セキュリティでは、敵対的な攻撃に対する堅牢性について触れる。さらにAIサービスを開発、トレーニング、導入した方法、テストで用いたシナリオ、想定外のシナリオで予測される反応、使用に適しているタスクと、使用すべきでないタスクを規定したガイドラインを含める」

 理論的には、これらの文書によって、より流動的なAIサービスのマーケットプレイスが実現し、消費者とサプライヤー間の情報格差が縮小できる。IBM Researchは、SDoCの作成は任意であるべきだとしている。

 SDoCの産物として、AIに対する信頼性の向上も期待できる。自動車のブレーキや飛行機の自動操縦が、問題なく動作するという消費者の信頼だ。そういった信頼は、標準化、透明性、テストがあってこそ、生まれるものだ。現在のAIサービスには、そのような信頼性が欠如しており、IBM Researchは「消費者はまだ、他の技術と同じようにAIを信頼するまでに至っていない」と指摘している。

 IBM Researchはまた、次のように付け加えている。

 「安全性とセキュリティの技術的な進歩は必要だが、AIに対する信頼を勝ち取るには不十分だ。進歩には、標準化された透明な方法で、サービスの性能レベルをそれらの観点から測定して、伝えることができる能力が伴わなければならない。それを実現する1つの方法となるのが、AIサービスのSDoCによる情報提供だ」

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]