サイバーセキュリティ企業CrowdStrikeは米国時間2月21日、「2024年版グローバル脅威レポート」(CrowdStrike 2024 Global Threat Report)を公開した。同レポートによると、サイバー犯罪者集団はMetaの大規模言語モデル(LLM)「Llama 2」をはじめとする生成型の人工知能(AI)を悪用し始めているという。
提供:Yuichiro Chino/Getty Images
同レポートには、Scattered SpiderというグループがLlama 2を用いて、Microsoftのタスク自動化プログラム「PowerShell」で記述されたスクリプトを生成したことを確認したと記されている。このスクリプトは、「北米の金融サービス企業」に所属する複数の従業員のログイン認証情報をダウンロードするために用いられたという。
同レポートによると、PowerShellで記述された攻撃コードを分析した結果、Llama 2が用いられたことを示す痕跡が見つかったという。同社は、「ユーザー固有のIDをダウンロードするために用いられたPowerShellのコードは、『ChatGPT』といったLLMの出力と類似していた」と記すとともに、「特に、それぞれのコマンドが、1つのコメントと実際のコマンド、改行で構成されているというパターンは、『Llama 2 70B』モデルの出力に合致している。コードスタイルのこうした類似から、Scattered SpiderはこのアクティビティーにおいてPowerShellスクリプトの生成にLLMを使用している可能性が高いと判断できる」と記している。
同レポートは、LLMを使用した痕跡を見いだすことは現時点において困難であるため、生成型AIをベースにした攻撃や、生成型AIで強化された攻撃を検知する能力は限定的だと警鐘を鳴らしている。ただ同社は、今のところLLMはそう多く使用されていないという仮説を立てており、「攻撃者が作戦遂行時の一部段階で生成型AIを利用した可能性があると具体的に確認されたケースは極めて少ない」と記している。
とは言うものの同社は、生成型AIの悪用が増加していくのは間違いないとしており、「AIの持続的発展により、悪用される可能性のある能力も確実に強化されていくだろう」と記している。
これまでは、攻撃側の課題として、LLMの開発コストが高い故に、そこから生成できる攻撃コードの種類が限られているというものがあった。
また同レポートには、「こうしたモデルを作り上げて使用しようとする脅威アクターの試みは、2023年においては比較的できの悪い詐欺にとどまり、多くの場合にはすぐに廃れていた」と記されている。
生成AIの悪用方法としてコード記述の他に考えられるのは、フェイクニュースの作成だ。同レポートはこの点に関して、2024年に予定されている米国の数多くの選挙がフェイクニュースの温床になる可能性を強調している。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。