製品概要
AI Yellow Team は、AI エージェントや LLM を活用したシステムに対する脅威モデリングサービスです。
近年、AI エージェントの活用が急速に進む一方で、システム内部での自律的な判断やエージェント間の協調動作など、従来のセキュリティ対策だけではカバーできないようなリスクが顕在化しています。本サービスでは、設計段階でこれらのリスクを洗い出し、予防的なセキュリティ対策をご提案いたします。
◆なぜ設計段階での対応が重要なのか?
AI エージェントの内部プロセスや複雑な相互作用に起因するリスクを適切に評価するには、 設計書レベルでの検討が不可欠です。また、これらの「見えないリスク」は運用開始後では発見・対処が困難なため、 事前の体系的な脅威モデリングが必要になります。
特徴
◆AI Yellow Team でできること
1.潜在脅威を可視化し、戦略的なセキュリティ投資を実現
各脅威を「影響度 × 発生可能性」で評価し、リスクマトリクスとして可視化。 ビジネス影響度の高い脅威から優先的に対策することで、限られた予算・工数を 効果的に配分できます。経営層への報告や投資判断に必要な定量的データをご提供いたします。
2.網羅的な脅威分析による「抜け漏れ」の防止
「OWASP Top 10 for LLM」や「OWASP Agentic AI Threats and Mitigations」など、信頼性の高い国際的ガイドラインに準拠した脅威カタログを活用。経験や勘に頼らず、体系的・客観的にリスクを洗い出し、 アーキテクチャ図にマッピングされた視覚的な脅威マップとしてご提供いたします。
3.設計段階での予防的対策により、大幅なコスト削減を実現
後工程でのセキュリティ対策は、NIST の調査によると最大30倍のコストがかかるとされています。AI Yellow Team は設計初期に予防的なセキュリティ対策の立案を行うことで、AI エージェントシステム特有の複雑性に起因する修正コストを劇的に削減することが可能になります。
◆料金
個別見積もり
対応の期間・内容、システム規模などにより、お見積りが変動いたします。
詳細については、以下よりお気軽にお問い合わせください。
◆よくある質問
Q.AI Red Team / AI Blue Team との違いは何ですか
A.AI Yellow Team は AI エージェントシステムの設計フェーズでご利用いただくサービスです。
AI Red Team はリリース前のセキュリティ診断、AI Blue Team はリリース後の継続的なセキュリティ監視を行い、開発ライフサイクル全体をカバーします。
Q.AI エージェントを利用していない AI システムも対象となりますか
A.はい、AI エージェントを利用していない AI システムにおける脅威分析についてもぜひご相談ください。
