海外コメンタリー

AI倫理の課題への対応は顧客の信頼獲得につながる--実践すべきステップ

Joe McKendrick (Special to ZDNET.com) 翻訳校正: 村上雅章 野崎裕子

2019-07-26 06:30

 AIの応用を考えた場合、倫理が厄介な問題としてのしかかってくる。AIにおけるバイアス、とりわけ意図しないバイアスの問題はどこで発生するのだろうか?企業はAIの開発や配備に全力投球するにあたり、そうした問題に十分な注意を払っているのだろうか?何らかの対処を講じているのだろうか?そもそも、何をすべきか分かっているのだろうか?


提供: Joe McKendrick

 AIからバイアスや、意図しない結果を除去することは、テクノロジー分野のマネージャーやプロフェッショナルの職域の一部になってきている。ビジネスリーダーがAIに関する指針や判断のアドバイスを彼らに求めるようになってきている点を考えると特にその傾向が強いと言える。そして倫理的なAIの追求は、企業に籍を置くテクノロジストの役割が増えるということを意味している。この点は、Capgemini Research Instituteが米国や欧州、中国など10カ国の大規模企業の幹部1580人と4カ国のコンシューマー4400人を対象に実施した調査の結果でも示されている。また同社の調査によって、AIにおける倫理と企業の成長の間には直接的な関連があることも明らかになっている。コンシューマーは、倫理的なAIを用いていると感じた企業をひいきにし、倫理から外れたAIを用いていると感じた企業からは距離を置こうとするという。

 企業がAIをその限界まで駆使し、倫理的な一線を越えるリスクをおかす理由は、競争上のプレッシャーにある。CapgeminiでAIおよびアナリティクスグループのマネージングディレクターを務めるAnne-Laure Thieullent氏に率いられた同社レポートの執筆陣は、「AIを利用しなければならないというプレッシャーによって、倫理的な問題が増幅されている」とし、「AIの利用に起因する倫理的な問題が大きくなってきている理由について幹部らに尋ねたところ、一番多かった回答はAIの実装に向けたプレッシャーだった」と続けている。そして、回答者の34%が挙げているこのプレッシャーは、AIのトレンドにおいて先頭を走り続るという企業の意思からきている可能性がある。

 また、およそ3分の1の幹部(33%)は、AIシステムの構築時に倫理的な問題が考慮されなかったと答えている。さらに31%の幹部は、人材やリソースの不足が主な問題だったと回答している。IT分野のマネージャーやプロフェッショナルらが力を発揮できるのはこの部分だ。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]