ロシアや北朝鮮などの脅威アクターによるLLM悪用、マイクロソフトとOpenAIが報告

Sabrina Ortiz (ZDNET.com) 翻訳校正: 編集部

2024-02-15 11:38

 生成型の人工知能(AI)がますます高性能化されるにしたがって、サイバー攻撃もますます高度なものになってきている。これがMicrosoftとOpenAIの見解だ。両社は今回、国家の後ろ盾を得た脅威アクターによる大規模言語モデル(LLM)の悪用状況に関するレポートを公開した。

提供:Oscar Wong/Getty Images
提供:Oscar Wong/Getty Images

 Microsoftが米国時間2月14日に公開した「Cyber Signals -- Navigating Cyberthreats and strengthening defenses in the era of AI」(サイバーシグナル:AI時代におけるサイバー脅威の状況と防御の強化)レポートでは、同社がOpenAIとともに検出、阻止した、ロシアや北朝鮮、イラン、中国の後ろ盾を得たアクターからの攻撃について、そして個人や組織が潜在的な攻撃に備えるために講じることができる対策について解説している。

 両社は、国家を後ろ盾としていると考えられるForest BlizzardやEmerald Sleet、Crimson Sandstorm、Charcoal Typhoon、Salmon Typhoonからの敵対的な攻撃を追跡した。いずれの攻撃も調査やトラブルシューティング、コンテンツの生成などのサイバー作戦を強化するためにLLMを利用していた。

 同レポートによると、例えば北朝鮮の脅威アクターであるEmerald Sleetは、北朝鮮に関する専門家やシンクタンクを調査したり、スピアフィッシングキャンペーンに用いられると思われるコンテンツを生成したり、既知の脆弱性を研究したり、技術的な問題を解決したり、さらにはさまざまなウェブテクノロジーを使うための支援を得るのにLLMを利用していたという。

 また、イランの脅威アクターであるCrimson Sandstormも同様に、ソーシャルエンジニアリングにおけるサポートや、問題のトラブルシューティングといった技術的な支援を目的としてLLMを利用していたという。

 Microsoftは、音声合成といったAI技術を悪用した詐欺行為が台頭してきており、その脅威は今後ますます増大していくと記している。こういった技術を使えば、わずか3秒程度の見本となる音声からどのような人の声でも模倣できるようなモデルを構築することができる。

 同レポートでは、生成型AIが悪意あるアクターによって用いられている点について記している。ただこの技術は、Microsoftのような防御側の陣営でも、より巧妙な保護手段を開発し、サイバーセキュリティの世界で常に繰り広げられているいたちごっこを優位に進めるために用いることができる。

 Microsoftは、サイバーセキュリティの兆候を毎日65兆件以上も検出している。同レポートによると、こうした兆候をAIによって分析することで、脅威を阻止する上で役立つ貴重な情報が得られるという。

 同レポートは結論として、ソーシャルエンジニアリングは人間が詐欺を見抜けない場合にのみ成立する攻撃手法であるため、従業員と一般大衆に対する継続的な啓発活動が不可欠だと記すとともに、AIの利用いかんに関係なく、予防策がすべてのサイバー脅威と戦っていく上で重要だと記している。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]