海外コメンタリー

責任あるAIの実現には多面的なアプローチが必要--MIT SMR誌レポート

Joe McKendrick (Special to ZDNET.com) 翻訳校正: 村上雅章 野崎裕子

2023-06-30 06:30

 人工知能(AI)を活用するプラットフォームやツールが日々新たに登場し、開発者やデータサイエンティスト、ビジネスアナリストを支援している。しかし、このような新興テクノロジーの急激な成長ペースは、AIシステムに関する責任やアカウンタビリティー(説明責任)能力の強化ペースをはるかに超えているという点で、AI分野の複雑さを増大させる結果になってもいる。

AIデータの抽象的なイメージ
提供:MR.Cole_Photographer/Getty Images

 これはMIT Sloan Management Review(MIT SMR)誌がBoston Consulting Group(BCG)と共同で最近実施した調査の結論だ。1240人の企業幹部を対象にしたこの調査では、責任あるAIというイニシアチブの進捗状況と、社内で開発したAIツールと社外から調達したAIツール(「シャドーAI」と呼ばれているものを含む)双方の採用状況が調査された。

 調査結果をレポートにまとめたElizabeth Renieris氏(オックスフォード大学のAI倫理研究所の上級研究員)とDavid Kiron氏(MIT SMRの編集責任者)、Steven Mills氏(BCGのマネージングディレクター兼パートナー)は、AIには負の側面もつきものだと示唆し、「例えば生成型AIは、その扱いにくさから、広範なユースケースに向けた用意が十分整っていない場合、組織に予測不能なリスクをもたらすことが分かっている」と述べた。

 Renieris氏とその共著者らは、多くの企業が「社内全体にシャドーAIが広がるという可能性を軽視していた」と考えている。さらに、AIの急速な進歩によって、「AIの利用に責任を持つことが難しくなる中、責任あるAIプログラムを遂行していく上でのプレッシャーが与えられている」という。

 また著者らはシャドーAIの増加によって生み出されるリスクについても警告している。その例として、企業は生成型AIアルゴリズムを急速に採用するとともに、急成長しているサードパーティーのAIツールへの依存度を高めている。「ChatGPT」や「Dall・E 2」「Midjourney」といった生成型AIのアルゴリズムは、訓練データを用いて現実のような、あるいは事実に基づいているかのようなテキストや画像、音声を生成するため、出自の確認が難しくなるという点で、商利用や法的側面、風評にまつわる新たなリスクがもたらされる。

 この研究者らは、責任あるAIの重要性についても言及している。責任あるAIという言葉はここでは、「個人や社会にとって役立つとともに、ビジネスを変革するインパクトを与えられるようなAIシステムの開発/運用を保証するための原則とポリシー、ツール、プロセスを備えたフレームワーク」と定義されている。

 またこの研究者らは、「業界に広まっているレイオフというトレンドの一環として、多くの企業において責任あるAIに向けた専任の社内リソースが縮小されているように見受けられる」という点から生み出されているもう1つの問題についても警告している。その上で研究者らは「責任あるAIに向けた投資が、最も必要とされている時に削減されているのは間違いない」と記している。

 例えば、従業員によるChatGPTの広範な利用は多くの組織で驚きを持って受け止められており、セキュリティに影響する可能性もある。研究者らは、責任あるAIのフレームワークは「生成型AIツールによってもたらされる急激かつ予想できないほど多くのリスクに対応すること」を目的として作成されていないと記している。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]