近年、生成AIの急速な普及に伴い、その技術が誤って使用されたり、悪用されたりすることへの懸念も高まっている。「ChatGPT」のようなツールは、現実と見分けがつかないほど精巧なテキスト、画像、映像、音声を生成する能力を持つ。こうしたシステムの開発者は、企業の生産性や人間の創造力の向上といった利点を強調しているが、一方で多くの安全保障の専門家や政策立案者は、誤情報の拡散やその他のリスクが加速する可能性について警鐘を鳴らしている。
OpenAIは、同社のAIシステムが脅威アクターによって悪用された複数の事例を取り上げた年次報告書を公表している。米国時間6月5日に公開された最新の報告書では、「AIの研究は進化し続ける分野である」とした上で、「われわれが阻止した全ての活動は、脅威アクターがどのようにモデルを利用しようとしているかを理解する手がかりとなり、防御策の洗練につながる」と述べている。この報告書では、過去1年間に確認された悪用事例10件が詳述されており、そのうち4件は中国からの関与が疑われている。
新たに公開された報告書では、取り上げられた10件の事例それぞれについて、OpenAIがどのように問題を検知し、対応したかが説明されている。例えば、中国に関連している可能性が高いとされる事例の一つでは、ChatGPTのアカウントが英語、中国語、ウルドゥー語でソーシャルメディア投稿を生成していたことが確認された。
投稿は「メインアカウント」によって公開され、その後、複数の別アカウントがコメントを重ねることで、あたかも実在の人々による自然なやりとりのように見せかけ、政治的に敏感な話題への注目を集めるように設計されていたという。報告書によれば、取り上げられたテーマ(台湾や米国国際開発庁〈USAID〉の解体など)は、「いずれも中国の地政学的利益と密接に一致している」とされている。
別の悪用事例として、OpenAIが中国との直接的な関与を指摘しているのは、ChatGPTを利用してパスワードの「ブルートフォース攻撃」(AIが生成した大量のパスワードを試行し、オンラインアカウントへの不正アクセスを試みる手法)を行ったり、米国の軍事および防衛産業に関する公開情報を調査したりするなど、悪意あるサイバー活動に従事していたケースである。
Reutersによれば、中国外務省はOpenAIの報告書に記載されたこれらの活動への関与を否定している。また、同報告書では、ロシア、イラン、カンボジアなどに関連するアクターによる、AIを用いたその他の脅威的な利用についても言及されている。
ChatGPTのようなテキスト生成モデルは、AIによる誤情報拡散の脅威のほんの入り口に過ぎないだろう。例えば、Googleの「Veo」のようなテキストから映像を生成するモデルは、自然言語のプロンプトからリアルな動画を作成できる段階に近づいている。また、ElevenLabsの最新版「v3」のようなテキストから音声を生成するモデルも、極めて自然な人間の声を簡単に再現できるようになってきている。
開発者は通常、こうしたモデルを公開する前に一定の安全対策(ガードレール)を講じているが、OpenAIの最新報告書が示すように、脅威アクターはその抜け道を突く手法においてますます巧妙かつ創造的になっている。特に米国では、連邦レベルの規制がまだ十分でないため、開発側と悪用側の間で、いわば“いたちごっこ”のような状況が続いていると言えるだろう。

提供:FabrikaCr/Getty Images
この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。