海外コメンタリー

AIの導入に立ちはだかる5つの壁と対応策

Greg Nichols (Special to ZDNET.com) 翻訳校正: 石橋啓一郎

2020-07-21 06:30

 21世紀以降に登場した、「企業のあらゆる問題を解決する万能薬」として喧伝された正体が曖昧なさまざまな技術と同じく、人工知能(AI)にも多くの期待が寄せられている(実際には、それらの期待を掲げているのは人工知能を売り込もうとする人々だが)。しかし、公共部門か民間部門かを問わず、AIの導入にはいくつかの大きな障害がある。それらの障害について理解することは、AIの限界と可能性、そして開拓期にあるエンタープライズソリューションにつきもののリスクを理解する上で重要だ。

AI
提供:Getty Images/iStockphoto

 コンサルティング企業のBooz Allen Hamiltonには、予知保全のためにAIを導入した米陸軍や、オピオイド危機の分析と対処にAIを導入した米食品医薬局(FDA)の支援を行った実績があり、リスクを嫌う大組織が、AIを有意義な形で導入しようとした際に何が起きるかを熟知している。

 この記事では、AIを導入する際にどこでつまずくのか、どんな障害があるのかを知るために、Booz AllenのAI戦略およびトレーニング担当ディレクターであるKathleen Featheringham氏から話を聞いた。同氏は、AIの導入には5つの大きな障害があり、これらは、公共部門と民間部門の両方に当てはまると述べている。

 注:以下の内容は、インタビューで尋ねた質問に対する回答をまとめたものだが、この記事の形式に合わせて、順序や言い回しは多少修正されている。以下の記述は、すべてFeatheringham氏の発言に基づくものだ。鋭い洞察を披露してくれた同氏に感謝する。

1.ガバナンスと倫理

 最初の問題は、AIのガバナンス(あるいはその欠如)だ。あらゆる有力技術に言えることだが、AIの導入にも、その機能と倫理原則に関するガバナンスの仕組みが必要になる。

 AIを用いたソリューションを作っているのは、不完全な人間だ。これまでにも、もともと意図していたわけではないが、使用されたデータが偏っていたために、差別的な結果を出力するモデルの例がいくつも明らかになっている。そうした問題は、データセットの偏り(例えばデータの除外やサンプリングの過程で生じた偏り)や、人間が無意識に持っていた偏見によって発生する。そうした事例が出てくれば、当然ながらAIに対する信頼は損なわれ、導入は遅れる。

解決策は

 自由、倫理、プライバシーと、効率やその他のAIがもたらすメリットのバランスを取る必要がある。これはAIの基礎であり、それを実現するには、組織のあらゆる階層の人々が、ガバナンス構造を作る上で自分が果たす役割を理解していなければならない。このガバナンスの仕組みには、設計と開発に関する倫理原則が含まれているべきであり、定期的に原則の見直しを行う「フィードバックループ」も備えていることが望ましい。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]