サイバーセキュリティ各社が2024年のセキュリティ動向を予想している。2023年にブームとなったAIやクラウドなどのテクノロジートレンド、また、社会情勢や企業・組織の体制を踏まえた興味深い示唆が目立つ。各社の予想を主要なトピックスで紹介する。
生成AIの利用が攻撃と対策で本格化?
2023年に世界的なブームとなった生成AIは、サイバーセキュリティの観点でも注目を集めた。当初からサイバー攻撃への悪用の可能性が指摘されていたものの、2023年の間に具体化した脅威はあまり見られず、攻撃者が生成AIの悪用を研究している段階にあるとの見解が多かった。しかし2024年は、悪用を実践する段階に入るだろうと予想している。
トレンドマイクロは、生成AIを悪用した「インフルエンスオペレーション」の拡大を予想する。AIで本物に酷似した音声や映像の偽装表現、ディープフェイクが可能になり、特に音声のクローニングによる詐欺での悪用が近い将来に増えると見ている。
特に2024年は、大統領選挙を控える米国などの政治動向に便乗した脅威が考えられるという。「AIブームは、既に政治にも影響を及ぼし、ニュージーランドと米国でAI生成の画像が政治広告に使われていることがそれを証明している」とし、SNSなどを活用して世論を操作するインフルエンスオペレーションの拡大が懸念されるとしている。クラウドストライクは、選挙のシステムやプロセス、それに付随する情報環境が脅威アクターの標的となる可能性があると予想。「ロシア、中国、イランなどの国家が支援下にある攻撃者は、サイバー攻撃や情報操作により世界中の選挙に影響を与え、その結果を覆そうと数々の攻撃を企ててきた歴史がある」と指摘している。
またクラウドストライクは、企業や組織で活用の検討が進むAIシステムのセキュリティリスクも高まるだろうとする。「AI導入時のセキュリティチームの脅威モデルに対する理解度はいまだ初心者レベルであり、従業員が無断で持ち込む非承認AIツールの追跡も追いついていない状況。こうした新しいテクノロジーは死角になりやすく、脅威アクターに企業ネットワークへの侵入や機密データ窃取のチャンスを与えてしまう可能性がある」と述べる。
このため企業や組織は、AIが既に導入されている部署を確認し、リスク状況を評価し、自社のリスクと費用を最小限に抑えながら、安全で監査可能なAI利用に向けた戦略的ガイドラインを策定していくと見る。
他方で、セキュリティ対策でのAI活用が進展するとの期待もある。Armisは、AI搭載の脆弱(ぜいじゃく)性管理ソリューションの導入が優先され、生成AIを活用する上では運用のインテリジェンスが重要になると解説する。
SecurityScorecardは、サイバー攻撃者が大規模言語モデル(LLM)を悪用して、未修正の脆弱性を悪用するなどの方法をこれまで以上に短い時間で編み出すだろうとし、「攻防における激しいAI戦争が繰り広げられる」「2024年のAI戦争は攻撃者が勝利」との厳しい予想だ。
しかし、LLMは組織のサイバーセキュリティを変革し、「LLMはシンプルなクエリーを実行することで、山のようなデータから実用的な洞察を導きだす驚異的パワーをセキュリティチームにもたらした」とする。ただし、LLMではサイバーセキュリティ特有のデータセットの複雑さを理解するには限界があるといい、「2024年のセキュリティチームは小規模言語モデルに移行する可能性がある。LLMが突きつける障壁を打ち破り、カスタマイズされた実用的なインサイトを提供し、リアルタイムデータトレーニングが武器となって、セキュリティチームが刻一刻と変化する脅威の状況に、迅速に対応可能になる」と予測している。