サイバーセキュリティ分野におけるAIのトピックは、攻撃者や犯罪者側の悪用と防御側での活用の2つがある。それぞれの現状はどうか。米Google Cloud インターナショナルセキュリティコーポレート部門で主任を務めるChristopher Porter氏が解説した。
Porter氏は、Google Cloud傘下のMandiantでグローバルセキュリティポリシー担当最高技術責任者やインテリジェンス戦略の責任者を務めたほか、米国連邦政府機関などのさまざまなサイバー脅威インテリジェンス施策の要職を歴任し、現在はGoogle Cloudで各国の公共部門やサイバーセキュリティ専門家とのコミュニケーションを主導している。
Google Cloud インターナショナルセキュリティコーポレート部門主任のChristopher Porter氏
Porter氏によると、Mandiantの調査結果では、オンプレミス中心の組織におけるセキュリティ侵害の初期侵入の38%は、ゼロデイ(修正されていない弱点の悪用)攻撃など技術的に高度な手法が原因だという。一方、Google Cloudがクラウドを中心とする組織を対象に実施した調査では、高度な手法を用いたケースは1.8%にとどまり、大半は認証情報などを狙うフィッシングといったソーシャルエンジニアリングを用いるものだった。
Porter氏は、「一般的にAI技術を駆使する先進的な攻撃が行われるとイメージされているが、組織のクラウド利用が進む中で実際の脅威は、技術的に高度な手法を使うというより人を狙う手法が使われている。ここで攻撃者は、標的の人物の行動習慣や好み、会話の特徴といったことを効率的に、迅速に理解するために、窃取した標的に関する情報をAIで分析している。また、入手した認証情報とダークウェブなどに流通している大量の認証情報を突き合わせる作業をAIで実行すれば、攻撃活動を素早く実行できる」と話す。
ただ、攻撃側がAIをより幅広く悪用しようとする様子も垣間見られる。Google CloudおよびMandiantの分析では、2023年に初めて、サイバー攻撃者向けに闇市場で販売されるスパイウェアツール製品の利用率と、国家的な支援を受けている攻撃組織が独自に開発するスパイウェアツールの利用率がいずれも44.1%で同水準になったという。
つまりスパイウェアツールの変化は、AIで膨大なデータ分析が可能になり、攻撃側がより多くの標的に関する情報を窃取しようとしている動きの一端を示す兆候と見ることができるわけだ。
こうした現状を踏まえPorter氏は、特に生成AIの普及が数年後に、AIを用いたサイバー攻撃手法のさらなる高度化を招くだろうと指摘する。
「攻撃側も独自の大規模言語モデル(LLM)の構築を進めている。かつて中南米や中東、東欧、東南アジアを拠点とする攻撃組織は技術に優れていたが、外国の言語は得意ではなかった。それがLLMや生成AIを悪用すれば、標的の言語に合わせて自然な内容のフィッシングメッセージを容易に作成できる。日本語で“守られていた”日本も例外ではなく、脅威が拡大するだろう」
Porter氏によれば、生成AIで巧妙な偽の文章や画像、写真、動画を作成するディープフェイクを使って、標的をだますためのさまざまな攻撃パターンの開発も進んでいるという。例えば、攻撃者がIT組織のトップになりすまし、ディープフェイクを作成した偽のメッセージをシステム管理者に送り付ければ、だまれたシステム管理者がシステムの情報などを攻撃者に手渡してしまうようなことが予想される。
Porter氏は、「特に日本では、多くの組織がIT運用を外部に委託しており、リスクが高い」と話す。攻撃者が生成AIを使ってなりすまし攻撃を行えば、標的になった組織側が攻撃に気づくのは非常に難しいことになる。