サイバー犯罪者が生成型AIのコード生成機能を悪用--クラウドストライクが警鐘

Tiernan Ray (Special to ZDNET.com) 翻訳校正: 編集部

2024-02-26 14:56

 サイバーセキュリティ企業CrowdStrikeは米国時間2月21日、「2024年版グローバル脅威レポート」(CrowdStrike 2024 Global Threat Report)を公開した。同レポートによると、サイバー犯罪者集団はMetaの大規模言語モデル(LLM)「Llama 2」をはじめとする生成型の人工知能(AI)を悪用し始めているという。

鍵穴のイメージ
提供:Yuichiro Chino/Getty Images

 同レポートには、Scattered SpiderというグループがLlama 2を用いて、Microsoftのタスク自動化プログラム「PowerShell」で記述されたスクリプトを生成したことを確認したと記されている。このスクリプトは、「北米の金融サービス企業」に所属する複数の従業員のログイン認証情報をダウンロードするために用いられたという。

 同レポートによると、PowerShellで記述された攻撃コードを分析した結果、Llama 2が用いられたことを示す痕跡が見つかったという。同社は、「ユーザー固有のIDをダウンロードするために用いられたPowerShellのコードは、『ChatGPT』といったLLMの出力と類似していた」と記すとともに、「特に、それぞれのコマンドが、1つのコメントと実際のコマンド、改行で構成されているというパターンは、『Llama 2 70B』モデルの出力に合致している。コードスタイルのこうした類似から、Scattered SpiderはこのアクティビティーにおいてPowerShellスクリプトの生成にLLMを使用している可能性が高いと判断できる」と記している。

 同レポートは、LLMを使用した痕跡を見いだすことは現時点において困難であるため、生成型AIをベースにした攻撃や、生成型AIで強化された攻撃を検知する能力は限定的だと警鐘を鳴らしている。ただ同社は、今のところLLMはそう多く使用されていないという仮説を立てており、「攻撃者が作戦遂行時の一部段階で生成型AIを利用した可能性があると具体的に確認されたケースは極めて少ない」と記している。

 とは言うものの同社は、生成型AIの悪用が増加していくのは間違いないとしており、「AIの持続的発展により、悪用される可能性のある能力も確実に強化されていくだろう」と記している。

 これまでは、攻撃側の課題として、LLMの開発コストが高い故に、そこから生成できる攻撃コードの種類が限られているというものがあった。

 また同レポートには、「こうしたモデルを作り上げて使用しようとする脅威アクターの試みは、2023年においては比較的できの悪い詐欺にとどまり、多くの場合にはすぐに廃れていた」と記されている。

 生成AIの悪用方法としてコード記述の他に考えられるのは、フェイクニュースの作成だ。同レポートはこの点に関して、2024年に予定されている米国の数多くの選挙がフェイクニュースの温床になる可能性を強調している。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]