人工知能(AI)を使用した自然言語処理ツールであるOpenAIの「ChatGPT」は、メール作成のような簡単なことから、エッセイの執筆やコードのコンパイルなどの複雑なことまでさまざまな作業をする能力を持っており、リリース以来世間で大きな関心を集めている。
提供:Getty
もちろん、ChatGPTは完璧からはほど遠いもので、学習に使われた情報を誤って解釈し、ミスやエラーを起こすことでよく知られている。しかし多くの人は、ChatGPTやその他のAIツールが、未来のインターネットの使い方を変えるのではないかと考えている。
OpenAIが掲げているChatGPTの利用規約では、ランサムウェアやキーロガー、ウイルスなどを含む、「何らかの害を及ぼすことを意図したソフトウェア」の生成を明確に禁止している。また、スパムを作成しようとする試みや、サイバー犯罪を目的とした利用も禁じられている。
しかし、革新的なオンラインテクノロジーが登場したときには必ず起こることだが、すでにChatGPTをいかがわしい目的で利用できないかを試している者たちがいる。
ChatGPTが公開されると、アンダーグラウンドの掲示板では、すぐにサイバー犯罪者たちがChatGPTを悪意のあるサイバー活動に利用する方法に関するスレッドを立て始めた。そこでは例えば、フィッシングメールの文面を作成させたり、マルウェアの作成に利用するといったことが議論されている。
また、悪者がChatGPTやその他のAIツール(例えばGoogleの「Bard」)を活動に利用することが懸念されている。これらのAIツールがサイバー攻撃に革命を起こすことはないが、その意図はなくとも、サイバー犯罪者が悪質な行為を効率的に行えるようになる可能性はある。
サイバーセキュリティ企業Check Pointの脅威インテリジェンスグループでマネージャーを務めるSergey Shykevich氏は、「少なくとも短期的には、ChatGPTがまったく新しいタイプの攻撃を生み出すとは考えにくい。試みの中心は、彼らの日々の活動におけるコスト効率を高めることになるだろう」と述べている。
フィッシング攻撃は、悪意を持ったハッキングや詐欺行為の一要素として非常によく利用されている。マルウェアやフィッシングのためのリンクを配布する場合も、被害者を説得して資金を送金させる場合も、電子メールは被害者に何かをさせる最初のきっかけになる重要なツールだ。
攻撃が電子メールに依存しているということは、犯罪者たちが明快で目的の役に立つメールの文章を常に一定のペースで必要とすることを意味する。多くの場合(特にフィッシング攻撃の場合)、攻撃者の目的は人間に何かをするよう説得することであり、例えば銀行送金がこれにあたる。幸いなことに、現在はフィッシング攻撃の多くを簡単にスパムとして見分けられるようになっている。しかし、効率的かつ自動的に文章を作成する仕組みがあれば、これらの電子メールにさらに説得力を持たせられるかもしれない。
サイバー犯罪はグローバル産業であり、あらゆる国々の犯罪者が、世界中の被害者予備軍にフィッシングメールを送信している。これは、言葉が壁になる場合があることを意味している。特に巧妙なスピアフィッシング攻撃の場合、被害者に自分は信頼できる相手とやりとりしていると信じさせる必要があるが、メールの文面におかしな綴りや、文法の間違いや、句読点の使い方の誤りが交じっていれば、相手を信じさせるのは難しいだろう。
しかし、AIを正しく利用すれば、攻撃者がチャットボットを使って、どんな言語の電子メールの文面でも作れるようになるかもしれない。