ウィズセキュア、サイバー攻撃での「ChatGPT」悪用について警鐘

NO BUDGET

2023-01-20 15:52

 ウィズセキュアは、機械学習によってテキストを生成する高精度の言語人工知能(AI)である「Generative Pre-trained Transformer 3(GPT-3)」に関する調査の結果を発表した。

 これによるとGPT-3をベースに開発されたチャットボットモデル「ChatGPT」がサイバー攻撃に利用される可能性があるという。

 GPT-3やGPT-3.5のような自己回帰言語モデルを採用した使いやすいツールが広くリリースされることで、インターネットに接続できる環境であれば、誰でも人間のような音声を数秒で生成することができるようになった。ウィズセキュアでは、わずかなインプットから多用途の自然言語テキストを生成することは、サイバー犯罪者の興味を引くことは必至だとしている。

 またウェブを使って詐欺やフェイクニュース、誤報を流す人たちも、信頼が置けるあるいは説得力のあるテキストを瞬時に作成するツールに関心を持つ可能性があるとしている。

 今回の調査で、ウィズセキュアはChatGPTに関する悪用例として次のユースケースを研究した。

  • フィッシングコンテンツ:ユーザーを騙して悪意のある添付ファイルを開かせたり、悪意のあるリンクにアクセスさせたりするように設計されたメールやメッセージ
  • ソーシャルノミネーション:個人への嫌がらせやブランド毀損(きそん)を目的としたソーシャルメディア上のメッセージ
  • 社会的検証:広告や販売を目的としたソーシャルメディア上のメッセージ、または詐欺を正当化するために作成されたメッセージ
  • スタイルトランスファー:モデルを騙して、特定のライティングスタイルを使用させるように設計された手法
  • オピニオントランスファー:モデルを騙して、あるテーマについて意図的に意見を述べるように仕向ける手法
  • プロンプト作成:コンテンツに基づいてプロンプトを作成するようにモデルに依頼する方法
  • フェイクニュース:GPT-3がフェイクニュースの記事を生成できるかを実験

 研究の結果、大規模言語モデルを用いれば、たとえ学習データに関連情報が含まれていなくても、スピアフィッシング攻撃に適したメールスレッドの作成、特定の人物の文体の模倣である「テキストディープフェイク」、文章内容への意見の適用、特定の文体での執筆、説得力のあるフェイク記事の作成が可能であることが証明されたという。

 この結果を受け、ウィズセキュアでは、インターネットに接続できる人なら誰でも強力な大規模言語モデルにアクセスできるようになったことで、人々が受け取るメッセージやコンテンツは、AIによって書かれたものかもしれないと、まず疑念を抱くことが必要だとした。そして同社は、相手にしている知性が「本物」なのか「人工のもの」なのかを見極めようとしているとした。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. セキュリティ

    「デジタル・フォレンジック」から始まるセキュリティ災禍論--活用したいIT業界の防災マニュアル

  2. 運用管理

    「無線LANがつながらない」という問い合わせにAIで対応、トラブル解決の切り札とは

  3. 運用管理

    Oracle DatabaseのAzure移行時におけるポイント、移行前に確認しておきたい障害対策

  4. 運用管理

    Google Chrome ブラウザ がセキュリティを強化、ゼロトラスト移行で高まるブラウザの重要性

  5. ビジネスアプリケーション

    技術進化でさらに発展するデータサイエンス/アナリティクス、最新の6大トレンドを解説

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]