サイバープロテクションベンダーの米Acronisを創業し、現在は同社のチーフリサーチオフィサーを務めるSerg Bell氏は、技術と研究開発をけん引しながら、スイス・シャフハウゼン工科研究所など大学関係のプログラムにも注力し、シンガポールの量子技術研究所の運営委員会メンバーを務めるなど技術と教育の発展に取り組んでいる。世界中で話題の「ChatGPT」には脅威論がつきまとい、実被害が深刻化するランサムウェアが脅威となっている。Bell氏にこれらのサイバーセキュリティ情勢に対する見方を尋ねた。
--サイバーセキュリティ業界でChatGPTを懸念する声が挙がっています。業界にどう影響すると思いますか。
Acronisの創業者でチーフリサーチオフィサーを務めるSerg Bell氏
あなたの質問に答える前に、まずChatGPT自身に聞いてみましょう。(Bell氏がこの質問を入力したところ)ChatGPT自身は、「AIの言語モデルであり、ChatGPTが直接的な影響を与えることはない」と回答しています。ChatGPTの「GPT-3.5」は少し古いモデルですから、今度は最新の「GPT-4」にも聞いてみましょう。(Bell氏が再び質問を入力したところ)GPT-4は、「ChatGPTはサイバーセキュリティに対してとても大きな影響を持ち始めている」と回答しています。
私の答えは簡潔です。とても広範な人々がマシンインテリジェンスに触れるようになったことが唯一の直接的な影響です。AI言語モデルの開発は新しいことではなく、悪人は昔から利用し、善人はそれより前から利用してきました。ただ、悪人がAIを悪用しやすくなったとは言えます。ChatGPTの文章生成能力はフィッシングに有用でしょう。
ChatGPTには興味深い点もあります。例えば、神様が全知全能だとすれば、人間の知識は限定的です。しかし人間は、質問に対し回答すべきではない事柄を理解できます。ChatGPTは膨大な知識にアクセスしますが、質問に回答すべきではない事柄が何かを理解できません。
ですから、ChatGPTの能力を提供する際には、ユーザーに対してしかるべき適切な回答を提供できるようにChatGPTを実装しなければなりません。ChatGPTがどのような情報をどうやって適切な人に提供すべきか理解できるようにしないといけないのです。(現状では)サイバー攻撃に悪用できるので、サイバーセキュリティ業界でもChatGPTが大きな話題になっています。
例えば、スマートハウスは音声操作でカーテンの開け閉めできます。それが悪用され、スマートハウスが勝手に開け閉めを繰り返したら住人は困るでしょう。デバイスはカーテンを開け閉めできますが、その判断は人間にしかできません。ChatGPTであろうと、ChatGPT以外のAI言語モデルであろうと、スマートデバイスであろうと、人間はそれらを使うだけでなく、適切に実装し、適切なアクセス制御を行い、セキュリティを担保しないといけません。人は成長過程で善悪の判断を学びますが、ChatGPTにはできません。それが課題なのです。
--ChatGPTを用いた新サービスが急増しています。提供する側と使う側が気を付けるべきことはありますか。
つまらない回答かもしれませんが、基本的なセキュリティ対策を確実にやるべきです。しかし、なかなか実行されていないのが現実ですよね。ChatGPTが登場しても、基本的なセキュリティ対策のを重要性は同じです。セキュリティソフトなどを使ってシステムを保護する、常にシステムが最新状態になるように構成し維持する、万一に備えてきちんとバックアップを確保しておく、すぐに相談できるパートナーを確保しておく――コロナ禍に手洗いやマスク着用が求められましたが、そもそもコロナ禍に関係なく風邪などを予防するために手洗いをしましょうと言われてきました。
ChatGPTの提供や利用におけるの注意点は、こうした基本的なセキュリティ対策の重要性が少し高まった程度のことです。こうした基本が大事ですが、徹底されていないことが課題です。ChatGPTのようなAIが登場して、改めて基本を徹底する大切さが意識され始めました。これにより、安全性やプライバシーへの配慮いった基本的な取り組みが推進されることを願っています。
--AI開発の一時停止を要求する動きも起きています。開発を中断すべきだと思いますか。
その質問も、まずChatGPTに聞いてみましょう。(質問を入力したところ)ChatGPTは「開発を止めるべきではない」と回答しています。こうした動きは感情や思想に基づいています。もちろん個々人で違いますから、正しい・正しくないという議論ではありません。
私は、技術が悪事に対抗し得る手段になると信じています。人間は「善と悪」「嘘と真実」を持ち合わせていますが、人間が常に知識を探求し悪に立ち向かうためにも、技術の発展を止めるべきではないと思います。AIをもっと安全に、プライバシーに配慮して活用できるように開発を進めるべきであり、中断すべきではありません。特定の国や集団がAIの開発停止を訴えたとしても効果は限定的でしょう。