IBMは米国時間9月19日、人工知能(AI)の導入を管理できるクラウドソフトウェア「Trust and Transparency capabilities」を発表した。複数のフレームワークでモデルのバイアスを検出し、そうした要素がもたらす影響を監視して、軽減できるという。
IBMのこうした動きは、企業が意思決定を行うために、機械学習やさまざまなモデルを導入するようになるにつれ、AI管理の重要性が高まっていることを浮き彫りにしている。企業幹部は、こうした技術を支えるモデルやデータサイエンスを理解するのに苦労するはずだ。
IBMによると、同社技術はAIを監視して、企業が規制に準拠できるように支援する。さらにIBMのソフトウェアは「Watson」「Tensorflow」「AWS SageMaker」「AzureML」など、機械学習フレームワーク上に構築されたモデルに対応する。
またIBMは、「AI Fairness 360」というツールキットを通じて、IBM Researchのバイアス検出ツールをオープンソース化する。このツールキットは、全く新しいアルゴリズム、コード、チュートリアルから成るライブラリだ。IBMは、学者、研究者、データ科学者が開発するモデルに、バイアス検出機能が統合されることを願っている。IBMのバイアス検出ツールは、GitHubで提供されている。
IBMのデータ&アナリティクス担当バイスプレジデントのRitika Gunnar氏は、企業がAIを大規模に本番環境で導入するのをためらっているのは、AIモデルに対する信頼と透明性が欠けているからだと、インタビューで述べた。端的に言うならば、リアルタイムの意思決定が業務に与える損害を懸念して、モデルは棚上げされたままになっている。
IBMのこうした動きは、戦略的に理にかなっている。IBMは、Watson AIを提供したい一方、AIと機械学習の導入全体も管理したい考えだ。AI管理が、技術ベンダーの口の端に上るようになるのも時間の問題だろう。IBMは、モデルがどのような要素に重みを置いているのか、またAIシステムのレコメンデーション、精度、性能、公正さに対する自信、開発経緯などについて、詳細を提供する計画だという。
現在販売されているモデルは、内在するバイアスや細かな例外規定など、透明性が欠けている。IBM Researchは最近、AIサービスもUL規格に相当するような安全評価を行うべきだと提案している。
IBM Institute for Business Valueは、AIバイアスとその防止方法について、最近執筆したレポートで概説している。それによると、企業の82%がAI導入を検討しているものの、責任問題を懸念している企業が60%に達した。
Gunnar氏は、AIバイアスは性別や人種といった要素以外の影響を受ける可能性があると指摘している。AIバイアスが起こり得るケースとして、保険金請求のプロセスで、査定者が請求を認定もしくは拒否する場合などが考えられる。保険の加入期間、車両の評価額、年齢、郵便番号などが「非社会的バイアス」として、影響を与える可能性があるという。
IBMのオープンソースツールであるAI Fairness 360には、クレジットスコアや医療費のAIバイアスのほか、顔画像のジェンダーバイアスなどを取り上げたチュートリアルが含まれている。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。