AIの管理やガバナンスのために企業が講じている手段を尋ねる質問では、42%の回答者が、既存のデータ部門やアナリティクス部門がAI技術を取り込み、問題に対応していると回答していた。また、AIのセンターオブエクセレンスを設置したと答えた回答者もほぼ同数いた。
従業員がAIを活用できるようにするために事業部門が取った施策を問う質問では、新たに獲得したAIのスキルを活用できるツールや機会の提供(43%)、業績指標を改定してAIに関する項目を取り入れる(40%)、新たなスキルや役職を取り入れた人員計画の策定(39%)、従業員教育フレームワークの変更(39%)などが回答の上位に並んでいる。
また、ITリーダーの39%が、AIを活用したローコード・ノーコード開発ツールを導入・利用することによってこの課題を解決していたほか、約3分の1(34%)は、AIモデリングの自動化ツールを導入していた。
2021年の調査では、AIに関する課題として、モデルの開発やデータの標準化を挙げる回答者が多かった。しかし今回は、これらの課題も残ってはいるものの、ガバナンスポリシーの策定(35%)や、AIシステムの維持(34%)を挙げる回答者が増えた。
優れた機能を持つAIは、責任も大きくなる。ITリーダーのうち、AIのガバナンスやポリシーが成熟していると回答したのはわずか9%だった。企業がAIのガバナンスを実現するために実施している施策には、全社的なAIリーダーの設置や、責任あるAIを実現するための標準やプロセスの確立などがある。また、ITのガバナンスを重視しているリーダーは増えている。適切なAIガバナンスの仕組みを持つことは、今後の法規制に先んじて対応するために重要だと考えている回答者は95%で、2021年の87%よりも増加した。さらに、回答者の半数近く(48%)が、効果的なAIガバナンスを実現するためのアクションを起こす必要があると考えていた。
AIの管理やガバナンスのために実施している施策を尋ねる質問では、44%がAIに関する倫理と責任あるAIに関する標準やプロセスを確立したと回答していた。またほぼ同数の回答者が、AIの戦略とガバナンスを統括する全社的なAIリーダーを設けていると述べている。
自社に導入したAIの監視が不十分な場合に発生するリスクについては、ハッキングや「AIテロリズム」の増加を挙げた回答者が最も多く(55%)、プライバシーを挙げた回答者もほぼ同数(55%)いた。また、規制の順守(49%)や「人間の主体性の喪失」(48%)もリスクの上位に挙げられている。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。