日本ネットワークセキュリティ協会(JNSA)の調査研究部会AIセキュリティワーキンググループ(WG)は、組織の生成AIの利用ケースに合わせて、安全な利用に必要な項目を取りまとめた資料「生成AIを利用する上でのセキュリティ成熟度モデル」を「GitHub」に公開した。
この資料では、組織での生成AI利用のケースを以下の4つに分類している。生成AIの利用にまつわる脅威と、脅威への対応や対策についてアプリケーションやモニタリング、ポリシーおよび教育の観点から相関関係を提示、解説している。
- 外部サービスの利用:「ChatGPT」や「Gemini」などの外部サービスを提供元が提供するウェブインターフェースやスマートフォンアプリケーションなどから利用する組織
- APIを利用した独自環境:「OpenAI API」や「Gemini API」などのAPIを自社のサービスや社内環境と連動させて利用する組織
- 自組織データの利用:ファインチューニングや検索拡張生成(RAG)の技術を用いて自組織のデータを生成AIに利用する組織
- 自組織向けモデルの開発:自組織向けにモデルを独自開発する組織
同WGは、「生成AIの利用ケースごとにマッピングを行い、生成AIを利用していく組織の一助になることを目的にしている」と説明している。