人工知能(AI)や機械学習(ML)は、今や多くの企業での業務用途が確立されており、パワフルなアルゴリズムや、膨大なコンピュートリソース、リッチなデータセットが容易に手に入るようになった結果、近年長足の進歩を遂げてきている。しかし、AI関連のマネージャーや専門家は今もなお、取り組みを台無しにしたり、誤った道へと押しやろうとするような、組織上あるいは倫理上の極めて困難な問題と格闘している。

提供:Joe McKendrick
「責任あるAI」に関して、リサーチャーのBogdana Rakova氏(AccentureおよびPartnership on AI)とJingying Yang氏(Partnership on AI)、Henriette Cramer氏(Spotify)、Rumman Chowdhury氏(Accenture)が実施した調査で、このような状況が明らかになったという。この調査の論文は、責任あるAIの取り組みの有効性に、組織の文化や構造がいかに影響するかということを分析するための枠組みを提供しようとするもので、リサーチャーは業界で取り組みを実践する人を対象にエスノグラフィックインタビューを実施したとしている。この論文によると、「(AIに)取り組む人々は、アカウンタビリティーの欠如と、性能上のトレードオフについての理解不足、外部からのプレッシャーがある場合に応じるのみとなっている意思決定構造内のアンバランスなインセンティブ(ミッションステートメントとの不一致)と格闘しなければならない」というケースが多くみられたという。
ほとんどのAIイニシアティブは依然としてアカウンタビリティーを向上させる必要に迫られており、そのためには組織レベルのフレームワークやメトリクスのさらなる活用のほか、構造的サポートや積極的評価、持ち上がってくる問題の緩和が求められている。
Rakova氏らの主張によると、AIチームは、AIモデルとアプリケーションを構築、テストし、洗練させるためのスキルセットを有していなければならないだけでなく、変革を率いるリーダーとしてステップアップする必要もあるという。また、「責任/アカウンタビリティーのあるAIプロセスの開発が今まで以上に求められている業界のプロフェッショナルは、自らの役割に内在する二重性に取り組む必要がある。それは変化をもたらす媒体という側面と、組織のミッションステートメントに合致せず、変革が報われない、あるいは歓迎されないかもしれないという、アンバランスなインセンティブを持つ可能性のある組織における豊富なキャリアを有したワーカーという側面だ」という。これはほとんどの人たちにとって「自らの組織構造とアルゴリズム上の責任を全うする取り組みが持つ相互作用に、ほとんど指針がない状態で対処していく必要がある」という新たな挑戦となる。リサーチャーらはこの能力、すなわち組織の要求と、責任/アカウンタビリティーのあるAIをバランスさせる能力を「公正なML」と呼んでいる。
以下はリサーチャーらが見出した、責任/アカウンタビリティーのあるAIの採用を阻んでいる4つの主な問題だ。
- いつ、どのように行動するのか?--リアクティブな行動:外部からの力(メディアや規制当局からの圧力)が及んだ時にのみ組織として行動している。
- 成果をどのように評価するのか?--パフォーマンスのトレードオフ:性能上のトレードオフについての理解不足が支配する中で、組織レベルで公正なMLに関する対話が実施されている。
- 中核とすべき内部構造とは何か?--アカウンタビリティーの欠如:役割分担が不明確であり、公正なMLという観点が抜け落ちている。
- 緊張にどのように対処するのか?--分断化:個人やチームのインセンティブと、組織レベルのミッションステートメントが一致していない。