海外コメンタリー

AI倫理の課題への対応は顧客の信頼獲得につながる--実践すべきステップ - (page 3)

Joe McKendrick (Special to ZDNET.com) 翻訳校正: 村上雅章 野崎裕子

2019-07-26 06:30

 データセットを継続的に監視する:「既存のデータセットがバイアスを生み出したり、既存のバイアスを増大させないように注力する必要がある。例えば、既存のAIツールを使用したり、データセットにおける特定の統計的パターンをチェックして、データセット内にある既存のバイアスを洗い出すことになる」。これには「アルゴリズムの開発前に、データセット中の既存のバイアスを洗い出し、修正するためのシステムの調査や配備」や「既存のバイアスを洗い出し、正規化し、低減するための、リリース前の十分なトライアルや、リリース後の監視の実施」も含まれている。

 AI上での倫理の実現に向け、テクノロジーツールを使用する:「AIを実装する人々の前に立ちはだかる問題の1つに、ディープラーニング(DL)やニューラルネットワーク(NN)の持つブラックボックス的な性質がある。これにより透明性の確保やバイアスのチェックが難しくなる」。この問題への取り組みを支援するためのテクノロジーを配備したり、プラットフォームを構築する企業が増えてきている。Thieullent氏と共著者らは、「IBM AI OpenScale」や、オープンソースのツール、透明性の確保やバイアスの洗い出しの強化に向けたAI新興企業によるソリューションなど、市場における有望な開発例を挙げている。

 AIシステムにおける倫理の統制構造を作り出すとともにアカウンタビリティーを保証する:「明確な役割と構造を作り出し、鍵となる人々やチームに対して倫理的なAIのアカウンタビリティーを割り当て、権限を与える」これは「既存の統制構造を改修し、特定チーム内でのアカウンタビリティーを作り出す」ことで実現できる。「例えば、組織における既存の倫理責任者(例えば、最高倫理責任者)に対して、AIにおける倫理的懸念の検証責任をも含めて任せることが考えられる」という。

 また、「AIにおける倫理的な疑問に対する説明責任を持つ上級リーダー」を割り当てておくことも重要だ。Thieullent氏とCapgeminiのチームは、「AIの倫理的な配備に責任を持つ独立した委員会を組織の内外に設立することで、早急なAI配備に向けたプレッシャーを与えないようにする」ことも推奨している。

 多様性のあるチームを構築し、倫理的な懸念について全方位的な感性を確実なものにする:「多様性のあるチームを巻き込むことが重要だ。例えば、組織は(性別や人種という観点での)多様性を強化したデータチームを作り出す必要があるだけでなく、AIの設計中にさらなる観点を提供できる社会学者や行動学者、UI/UXデザイナーによる学際的なチームを積極的に作り出す必要がある」

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. セキュリティ

    Pマーク改訂で何が変わり、何をすればいいのか?まずは改訂の概要と企業に求められる対応を理解しよう

  2. 運用管理

    メールアラートは廃止すべき時が来た! IT運用担当者がゆとりを取り戻す5つの方法

  3. セキュリティ

    従来型のセキュリティでは太刀打ちできない「生成AIによるサイバー攻撃」撃退法のススメ

  4. セキュリティ

    AIサイバー攻撃の増加でフォーティネットが提言、高いセキュリティ意識を実現するトレーニングの重要性

  5. セキュリティ

    クラウド資産を守るための最新の施策、クラウドストライクが提示するチェックリスト

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]