調査

「倫理的なAI」に対する企業の意識はどれほどか

Jonathan Greig (Special to ZDNET.com) 翻訳校正: 石橋啓一郎

2021-06-08 06:30

 FICOとCoriniumが新たに発表した調査レポートで、多くの企業はさまざまな形態の人工知能(AI)をあらゆる場面に導入しているが、潜在的な倫理の問題を考慮しないままとなっている場合があることが明らかになった。

 この10年間で、企業が使用していたAIが破滅的な結果を招く事例が数多く起きている。例えば肌が黒いと顔の認識精度が低下する顔認識システムや、アフリカ系米国人の患者を差別するヘルスケアアプリ、裁判所が利用する再犯率を計算するAIが人種によって偏った結果を出していた事例など、そうした例は枚挙に暇がない。

 それでも、FICOのレポート「State of Responsible AI」によれば、ビジネスリーダーは自分たちが幅広くAIシステムを利用しているにも関わらず、AIの公平さや安全性を確保する努力を怠っていることが明らかになった。

 2~3月にかけて実施されたこの調査は、米国、南米、欧州、中東およびアフリカ、アジア太平洋の各地域から20人ずつ選ばれた、計100人のAI分野のビジネスリーダーを対象としたものだ。

 この調査では、年間売上高1億ドル(約110億円)以上の企業に所属する最高データ責任者(CDO)や最高AI責任者(CAO)、最高アナリティクス責任者(CAO)などの役職にある役員を対象として、AIの責任ある倫理的な利用を推進するために講じている方策について尋ねた。

 レポートによれば、回答者の約70%は、特定のAIモデルの意思決定や予想がどのように行われているかを説明することはできないと述べており、AIを透明性が高く説明責任を果たせる形で利用する努力をしていると答えたのは35%にすぎなかった。

 使用する技術の公平性についての判断を行うAI倫理委員会を設けていると答えた回答者はわずか22%で、残りの78%は、「新しいAIシステムを使用することによる倫理的な影響を保証する体制は十分に整っていない」と述べている。

 また回答者の80%近くが、倫理的なAIの利用を検討したり、優先させたりするようほかの幹部を説得することは非常に困難だと答えていた。不公平なAIや、非倫理的なAI、正しく管理されていないAIが評判を損なうリスクとビジネスの両方を真に理解している企業役員はほとんどいない。

 さらに回答者の65%以上は、すべてのAIプロジェクトが規制を遵守していることを保証するためのプロセスが「効果的ではない」(「あまり効果的ではない」と「まったく効果的ではない」の合計)と述べており、半数近くが「まったく効果的ではない」と述べていた。

 企業がAIの利用について十分な配慮を行っていないことを認めているにも関わらず、調査対象の77%はAutoML技術が誤った形で使われる可能性があることを認めており、90%はモデルを監視するプロセスが非効率的であることがAI導入の障害になっていると回答していた。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

マイナンバーカードの利用状況を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]