Netskope Japanは1月30日、「クラウドと脅威レポート」の最新版を発表した。この中で、2024年における生成AIの利用とリスク対策の状況を明らかにしている。
このレポートは、同社の調査研究部門「Netskope Threat Labs」が行ったクラウド関連の脅威を中心とする独自の調査結果を取りまとめたもの。それによると、フィッシング被害が2023年から2.9倍増加し、88%の組織でクラウドアプリからの悪意あるコンテンツのダウンロードが月に1回以上発生。クラウドアプリを狙う攻撃の42%が「Microsoft Live」と「Microsoft 365」の認証情報だったとしている。
生成AIアプリの利用状況については、組織当たりの平均導入数が2023年の7.6個から2024年は9.6個に増加した。最多使用アプリは「ChatGPT」の84%だった。ただし、上位25%の組織で少なくとも24個だったが、下位25%の組織では最大4個と懸け離れていた。組織の利用率は2023年の81%から2024年は94%に、従業員の利用率も2.6%から7.8%に増加した。業界別では、特に小売とテクノロジーで毎月生成AIアプリを使う従業員が平均13%以上になったとしている。

組織での生成AIアプリ別の利用率推移(出典:Netskope Japan)
他方で、生成AIアプリがもたらすデータリスクへの対応が初期段階にあるという。データ漏えい防止(DLP)技術で生成AIアプリへのデータ流入を制御している組織は45%に上り、業界別では電気通信の64%が最多だった。
また、組織の34%は、使用者が適切な情報に基づいた意思決定を行えるように、リアルタイムな対話型のユーザーコーチングを利用しているという。しかし、ポリシーに違反した可能性に関する警告を表示された場合に、ユーザーの73%はコーチング情報に基づいた行動をしていないことが判明した。
さらに、73%の組織が少なくとも1つの生成AIアプリを遮断しており、平均では2.4個の生成AIアプリをブロックしている。ブロックしている組織の上位25%でのブロック数は14.6個で、2023年の6.3個から大幅に増加した。
同社は、2025年も職場での生成AI活用がさらに加速し、利用可能な生成AIアプリの数も増加し続けると指摘。「組織は最新のデータセキュリティを用いた承認済みのアプリへのデータ移動を制御し、リアルタイムなコーチングを活用して、人々が生成AIアプリを使用する際に十分な情報に基づいた意思決定を行えるよう支援し、承認されていないアプリをブロックするための制御を実装することが重要」と解説している。