生成AIやエージェントの活用が進む一方で、「システム側の防御設定は整えているのに、なぜ問題が起きるのか」という声が増えているのが現実だ。その背景には、「人がAIをどう使うか」という視点の欠如がある点を忘れてはならない。どの部門が誰の判断でどんな操作をしているのかを把握できなければ、予期せぬリスクを見逃してしまうことになる。特にエージェントの導入が容易になった今こそ、「人の使い方」を正しく理解し、制御するためのガバナンスが求められているのである。
こうした事態を踏まえて本資料では、AIやエージェント利用のルールが整備されていないという現場の課題に向き合い、利用者視点に基づいたAI利用のガバナンスをどう考え、どこから始めるべきかについて詳しく解説している。イベントモニタリングやセキュリティセンターなどによる利用実態の把握、データマスキングやバックアップを活用したデータ保護など、ルールづくりの前に取り組むべき「見える化」の具体策も提示。AI活用を安全かつ持続的に進めるための指針として、自社のガイドライン策定に役立つ内容となっている。
ホワイトペーパー
