ラックは2月20日、生成AIシステムのセキュリティを強化するための新サービス「生成AI活用システム リスク診断」を提供を開始した。同社によれば、生成AIを組み込んだシステムは従来型のシステムと異なり、AIを欺くために設計された敵対的な攻撃(プロンプトインジェクション)に対して脆弱であることが明らかになってきているという。
同サービスは、「プロンプトの悪用による機密情報の搾取」「不適切なコンテンツの表示」「内部的に設定されたプロンプトなど知的財産の搾取」「プロンプトの大量入力によるサービス拒否やトークンの過剰消費」などの脆弱性の有無を評価する。その上で生成AIを使ったシステムを対象に、特有の脆弱性が含まれていないかを評価して改善点をレポートする。
さらにウェブアプリケーションの安全性を攻撃者の視点から調査する「Webアプリケーション診断」や、クラウド環境の潜在的な設定ミスや脆弱性の見落としを発見・修正する「クラウドセキュリティ設定診断」などと組み合わせてシステム全体の脆弱性を点検することも可能だ。なお診断の項目は、今後も随時追加していく予定だという。
同サービスに含まれる評価項目には、(1)プロンプトインジェクション、(2)ジェイルブレイク、(3)プロンプトリーク、(4)大規模言語モデル出力の改ざん、(5)プロンプトの大量入力によるサービス拒否――がある。
(1)はシステムの設定を回避して、モデルに学習されている機密情報やシステム情報を搾取できてしまう脆弱性を指す。(2)はシステムに設定されたポリシーを回避して、不適切なコンテンツ(攻撃的、または有害なコンテンツ)を解凍できてしまう脆弱性を言う。
(3)はシステムの内部で設定されているプロンプトを搾取できてしまう脆弱性のこと。(4)は大規模言語モデル(LLM)の出力を改ざんすることで、SQLインジェクションやクロスサイトスクリプティングなどの攻撃を誘発する脆弱性を言う。
(5)は繰り返し大量のプロンプトを機械的に入力することで、システムが不安定になったり、大量のトークンを消費させ過剰な料金請求が発生してしまったりする脆弱性のことを指す。