Googleは米国時間11月8日、「Google Cloud Cybersecurity Forecast 2024」(Google Cloudによる2024年のサイバーセキュリティ予測)レポートを公開した。同レポートは、Google Cloudの複数のセキュリティチームが協力し、2024年のサイバーセキュリティ状況に関する知見をまとめたものだ。
提供:Getty Images/Malte Mueller
同レポートによると、生成型の人工知能(AI)と大規模言語モデル(LLM)がフィッシングや、SMS(ショートメッセージサービス)、ソーシャルエンジニアリングを用いるさまざまなサイバー攻撃において、コンテンツや、音声/動画などの素材をより本物らしく見せるために利用されるようになるという。
例を挙げると、生成型AIは自然言語の模倣能力に長けているため、フィッシング攻撃を判別するための決め手となる、ミススペルや文法上の誤り、文化的な背景の欠如といったものを減らせるようになる。その結果、フィッシング攻撃かどうかの判断がより難しくなる。
また別の例として、攻撃者はLLMに本物のコンテンツを入力し、オリジナルの文体を維持しつつ、自らの目的にあったかたちのコンテンツを生成させることも可能だ。
同レポートは、攻撃者が攻撃にかかる手間を減らしつつ、より効果的な攻撃を実行できるようにするための、有料サービスのLLMや生成型AIツールが今後増えていくとも予測している。
生成型AI自体は悪質なものではなく、請求書の下書きといったコンテンツを作成するために用いられているが、攻撃者は被害者を標的にして目的を達成するためにこれを悪用できる。
米ZDNETも過去の記事で、AIを使って声を合成し、標的の家族や友人のふりをして、困った状況にあると思わせてお金をだまし取るという詐欺師の手口を紹介している。
生成型AIにまつわる潜在的脅威には情報操作というものもある。攻撃者はAIプロンプトを用いるだけで、生成型AIモデルにフェイクニュースを作り出させたり、偽の電話をかけさせたり、ディープフェイク写真/動画を生成させたりできる。
同レポートによると、こういった脅威が日々のニュースにますます登場する可能性もあるという。このような手法が大々的に利用されるようになると、ニュースやオンライン情報に対する一般大衆の信頼が損なわれていき、人々が疑心暗鬼に陥ったり、見聞きしたニュースを信じなくなる可能性がある。
同レポートは「これによって近い将来、企業や政府は大衆からの信頼を得ることが難しくなる可能性もある」と記している。
攻撃者は攻撃を強化するためにAIを利用しているが、サイバー防衛側もまた、より高度な防御で対抗するためにこの技術を活用できる。
Google Cloudの最高情報セキュリティ責任者(CISO)であるPhil Venables氏は、「AIはすでにサイバー防御側に多大なメリットをもたらしており、能力の向上、労力の削減、脅威からの防衛強化を可能にしている」と述べ、「防衛側がこの技術を保有し、特定のユースケースを念頭に置いた開発を推進できるようになるため、2024年にはこれらの能力や利点が拡大するとみている」とした。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。