海外コメンタリー

AI倫理の課題への対応は顧客の信頼獲得につながる--実践すべきステップ - (page 2)

Joe McKendrick (Special to ZDNET.com) 翻訳校正: 村上雅章 野崎裕子

2019-07-26 06:30

 Capgeminiのチームは、IT分野のマネージャーやプロフェッショナルらが対処する必要のある問題として以下を挙げている。

  • 倫理的なAIに向けた行動規範や、そうした規範からの逸脱を検証する能力の欠如
  • AIシステムの開発者に対する適切な訓練の欠如
  • AIシステム構築時における倫理的な問題に対する考慮の欠如
  • 倫理的な問題への適切な取り組みなしにAIの実装を急がせるプレッシャー
  • 倫理的なAIシステムのためのリソースの欠如(資金、人、テクノロジー)

 Thieullent氏と共著者らは、IT分野のマネージャーやプロフェッショナルに対してAIの倫理という観点でリーダーシップを発揮するようアドバイスしている。レポートでは、CXOやビジネスリーダー、顧客や従業員と対面する人事やマーケティング担当者、AIシステムの設計や開発、導入などに取り組むAIやデータ、ITのチームといった3つの主要なグループに向け、AIの倫理に関する課題にプロアクティブに対応するための最初のステップについて説明している。以下はその一部だ。

 ユーザーにさらなる統制権を与えるとともに、彼らが支援を要求できるようにする: 「このことは、ユーザーがAIに基づく意思決定に対して説明を求められるようなポリシーとプロセスの構築を意味している」

 ユーザーの信頼を得るためにAIシステムの透明性と理解可能性を向上させる:「システムを開発するチームは、AIに基づく特定の意思決定がいかにしてなされたのか、そして個人に対してどのような影響を与えるのかを平易な言葉で説明するドキュメントや情報を提供するべきだ。またこういったチームは、意思決定システムとともに、データセットに対する処理を文書化する必要もある」

 優れたデータ管理を実践するとともに、データにおける潜在的なバイアスを低減する:「ゼネラルマネジメント層は優れたデータ管理プラクティスを用意する責任があるが、こういったプラクティスが確実に守られるようにするのはデータエンジニアリングチームやデータサイエンスチーム、AIチームの責任となる。これらのチームは、設計段階や実装段階で『プライバシーバイデザイン』という原則を取り込み、データサイクル全体(生データや訓練データ、テストデータなど)における堅牢性と再現性、監査可能性を保証するべきだ」

 その一環として、IT分野のマネージャーは「表面化しにくい少数のデータやイベント/パターンの検出も含め、正確性と品質、堅牢性、潜在的バイアスの有無をチェックする」とともに、「監査や再現性評価が可能なように、データの適正なラベリングプラクティスを作り上げ、定期的にレビューし、責任を持って格納する」必要がある。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]