ウィズセキュア、サイバー攻撃での「ChatGPT」悪用について警鐘

NO BUDGET

2023-01-20 15:52

 ウィズセキュアは、機械学習によってテキストを生成する高精度の言語人工知能(AI)である「Generative Pre-trained Transformer 3(GPT-3)」に関する調査の結果を発表した。

 これによるとGPT-3をベースに開発されたチャットボットモデル「ChatGPT」がサイバー攻撃に利用される可能性があるという。

 GPT-3やGPT-3.5のような自己回帰言語モデルを採用した使いやすいツールが広くリリースされることで、インターネットに接続できる環境であれば、誰でも人間のような音声を数秒で生成することができるようになった。ウィズセキュアでは、わずかなインプットから多用途の自然言語テキストを生成することは、サイバー犯罪者の興味を引くことは必至だとしている。

 またウェブを使って詐欺やフェイクニュース、誤報を流す人たちも、信頼が置けるあるいは説得力のあるテキストを瞬時に作成するツールに関心を持つ可能性があるとしている。

 今回の調査で、ウィズセキュアはChatGPTに関する悪用例として次のユースケースを研究した。

  • フィッシングコンテンツ:ユーザーを騙して悪意のある添付ファイルを開かせたり、悪意のあるリンクにアクセスさせたりするように設計されたメールやメッセージ
  • ソーシャルノミネーション:個人への嫌がらせやブランド毀損(きそん)を目的としたソーシャルメディア上のメッセージ
  • 社会的検証:広告や販売を目的としたソーシャルメディア上のメッセージ、または詐欺を正当化するために作成されたメッセージ
  • スタイルトランスファー:モデルを騙して、特定のライティングスタイルを使用させるように設計された手法
  • オピニオントランスファー:モデルを騙して、あるテーマについて意図的に意見を述べるように仕向ける手法
  • プロンプト作成:コンテンツに基づいてプロンプトを作成するようにモデルに依頼する方法
  • フェイクニュース:GPT-3がフェイクニュースの記事を生成できるかを実験

 研究の結果、大規模言語モデルを用いれば、たとえ学習データに関連情報が含まれていなくても、スピアフィッシング攻撃に適したメールスレッドの作成、特定の人物の文体の模倣である「テキストディープフェイク」、文章内容への意見の適用、特定の文体での執筆、説得力のあるフェイク記事の作成が可能であることが証明されたという。

 この結果を受け、ウィズセキュアでは、インターネットに接続できる人なら誰でも強力な大規模言語モデルにアクセスできるようになったことで、人々が受け取るメッセージやコンテンツは、AIによって書かれたものかもしれないと、まず疑念を抱くことが必要だとした。そして同社は、相手にしている知性が「本物」なのか「人工のもの」なのかを見極めようとしているとした。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

自社にとって最大のセキュリティ脅威は何ですか

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]