PwCコンサルティングは9月19日、AIサービスのビジネスリスクを特定・改善する「AIレッドチーム」サービスを開始すると発表した。AIセキュリティの専門家がクライアント企業のAIサービスに対して模擬攻撃を実施し、その脆弱(ぜいじゃく)性や潜在的な脅威、ビジネスリスクを特定して改善を支援する。
PwCコンサルティング 上席執行役員 パートナーの林和洋氏(左)と、執行役員 パートナーの村上純一氏
PwC Japanグループのサイバーセキュリティ&デジタルオペレーショナルレジリエンス リーダーで、PwCコンサルティングの上席執行役員パートナーを務める林和洋氏は、最新の地政学リスクを踏まえ、海外で事業を展開する日本企業には経済安全保障を考慮した企業戦略が必要であり、サイバーセキュリティ対応やAI規制法などの海外法規制への対応が求められると指摘した。
また、PwC Japanグループの調査によると、最も懸念される地政学リスクとして「サイバーアタック/サイバーテロ」が3年連続で首位になっていることを紹介。さらに、林氏はビジネスのデジタル化においてAIの活用が着実に普及していると述べ、サイバーリスクを管理し対処するためにAIレッドチームのサービスが重要な役割を果たすとの見解を示した。
2024年の10大地政学リスク
続いて、執行役員パートナーの村上純一氏が、AIレッドチームのサービス詳細について説明した。同氏はまず、2022~2023年にかけて対話型生成AIが急速に普及し、AIのユースケースが大きく変わり、民主化が進んでいると指摘。これまでのAIはプログラマーやエンジニア、サイエンティストなど専門知識を持つユーザーが利用していたが、生成AIの普及により、専門知識を持たないユーザーでも自然言語で対話的にAIを利用できるようになってきた。しかし、その結果として「生成AI特有のリスクも生じている」と語った。
村上氏は、AI関連インシデントの年次推移についても言及し、2023年から急増していると指摘した。これらのインシデントの多くは心理や評判、経済などに関連しいものだが、数は少ないものの負傷、損害、死亡といった物理的被害を伴う事例も報告されている。村上氏は、こうしたリスクへの対策の重要性を強調した。
AIを取り巻くリスク
AIインシデント事例のイメージ
AIレッドチームの利用は、AIを活用したサービスの提供開始直前や、既に運用中のサービスの診断が想定されている。村上氏は、サービスの差別化要素として、「AIの不正利用に伴うビジネスリスクの特定」「独自リサーチとAIセキュリティに精通したエンジニアによるテストの実施」「サービス設計、実装、運用にわたる改善アドバイスの提供」の3点を挙げた。特に、テスト前の事前準備段階での手厚い対応が重要であると強調した。
また、AIというシステムの特性上、同じテストを実施しても結果が変わる可能性があり、テストによって内在する問題が検出されない場合があるという。そのため、テストを実施する前に、AIサービスに潜む可能性のあるリスクを徹底的に洗い出すことが重要だと指摘した。また、テストの実施に際しては、同社の独自のインテリジェンスに加え、イスラエルのAdversa AIなどと技術連携してサービスを提供し、業界標準に加えてクライアントのAIサービスに特有のリスクにも焦点を当てると述べた。改善アドバイスについては、「入出力のフィルタリングなどの対症療法だけでは根本的な解決にはならないが、われわれは根本的なAIの改善まで支援できる」(村上氏)としている。
同社のAIレッドチームサービスは、攻撃の対象範囲が広いため、まずは消費者向けAIサービスを提供する企業が主な対象となると予想されるが、AIレッドチームを社内で内製化しようとする企業に対しても、内製化支援などのサービスを提供できるという。
AIレッドチームに関するPwCのアプローチ