生成型の人工知能(AI)に対する当初の熱狂は、注意が必要という姿勢に変化しているようだ。組織は現在、こうしたツールの利用を禁止したり、禁止を検討したりするようになっている。
提供:Busakorn Pongparnit/Getty Images
BlackBerryが6月と7月に実施した世界規模の調査によると、企業の75%は、「ChatGPT」をはじめとする生成型AIアプリケーションの職場における利用の禁止を指示、あるいは検討しているという。また、これら企業の61%はそうした対策が恒久的あるいは長期的なものだと答えている。この調査は、オーストラリアや日本、フランス、ドイツ、カナダ、オランダ、米国、英国などのIT関連の意思決定者2000人を対象に実施された。
回答者は禁止理由としてデータのセキュリティや、プライバシー、ブランドの評判に対するリスクを挙げている。また83%は、セキュアではないアプリケーションが自社のIT環境にセキュリティ上の脅威をもたらすという懸念を表明している。
しかし、従業員が業務目的で使用するアプリケーションを統制する権利は組織が留保しているとする企業が80%に達している一方、使用禁止にするというのは会社が用意したデバイスとBYODに対する「過剰な統制」になるとする企業も74%に上っている。
注意が必要という点はさておき、回答者のほとんどは生成型AIがもたらし得る機会を認識しており、55%は効率の向上を挙げている。また、52%はこのテクノロジーがイノベーションをけん引できると確信している一方、51%は創造性の向上につながるだろうと述べている。
さらに、81%は生成型AIを活用したサイバーセキュリティ強化ツールの利用に前向きだとしている。
BlackBerryの最高技術責任者(CTO)Shishir Singh氏は「職場での生成型AIアプリケーションの使用を禁止するというのは、業務にもたらされ得る豊富なメリットを放棄することに他ならない」と述べている。
そうではなく企業は、「エンタープライズグレード」の生成型AIを用いて、現在の過剰な盛り上がりの先にある価値に焦点を当てながらイノベーションを模索していくとともに、セキュリティに難のあるコンシューマー向け生成型AIツールを用いる際に注意を怠らないようにするべきだと同氏は述べている。
Singh氏は「プラットフォームが成熟し、規制が施行されていくとともに、組織のポリシーの柔軟性は高まるだろう。ここで重要なのは、職場で用いられるアプリケーションの可視化と監視、管理のための適切なツールを用意しておくことだ」と述べている。
調査企業のGartnerも、生成型AIが大企業のリスク担当幹部らの主な懸念になっていることを米国時間8月8日に公開した調査結果で明らかにしている。
Gartnerのリスクおよび監査プラクティスの調査責任者であるRan Xu氏は、2023年第2四半期における同社の調査で、生成型AIが2番目に多く言及されたリスクであるとともに、10位圏内に入ってきたのは今回が初めてだと記している。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。