海外コメンタリー

「ChatGPT」の成功がAIに与える非オープン化の弊害、第一人者のベンジオ氏が警告

Tiernan Ray (Special to ZDNET.com) 翻訳校正: 編集部

2023-03-18 06:30

 現時点で、世界で最も注目を集める人工知能(AI)プログラムを開発している企業には、同業他社の多くと異なる点がある。それは、ソースコードを公開していないことだ。

OpenAIの文字が映る目
提供:Photo by Jaap Arriens/NurPhoto via Getty Images

 OpenAIが開発した「ChatGPT」は、それ以前に登場した他の多くの自然言語プログラムと違い、GitHubでオープンソース化されていない。

 そして米国時間3月14日、同社はChatGPTの言語モデル「GPT」の最新バージョンである「GPT-4」の技術的な詳細を公開することさえ拒否するという、ある種のマイルストーンを達成した。

 ChatGPTとGPT-4における透明性の欠如は、ディープラーニング(深層学習)AIにおける慣例を破るものだ。この分野では、学者であっても企業の研究者であっても、オープンソースソフトウェアの伝統にならって情報を積極的に公開し、希望すれば誰もがすぐにコードを入手できるようにするのが常だった。

 しかし、ChatGPTが持つ閉鎖的な性質が、AIの世界ではむしろ標準的なものとなる可能性があり、この点で倫理的な問題をはらんでいると、AIのパイオニアでカナダのケベック州にあるAI研究機関、Milaの科学ディレクターを務めるYoshua Bengio氏は、9日に開催されたCollective[i]のオンラインディスカッションシリーズ「FORECAST」で報道関係者や業界関係者に警告した。

 「当初は学術界に身を置き、その後実業界に移った研究者のアカデミックな考え方が、(AIの世界の)文化を変え、基本的には情報を共有して共同で研究するというオープンソースの精神をより反映するようになっていた」と、Bengio氏は「Zoom」上で開かれたこのイベントで、報道関係者や業界関係者からなる少数の聴衆に語りかけた。

 「だが、今後はおそらく、市場の圧力によって異なる方向へと押しやられることになるだろう」と同氏は述べ、次のように続けた。「秘密主義だ。これは倫理的な理由で良くないだけでなく、技術の進歩にとっても好ましくない。なぜなら、物事が秘密にされれば、情報がさらに多くの場所に届くまでにより時間がかかるからだ」

 モントリオール大学の常勤教授で、カナダの研究機関CIFARの「Learning in Machines and Brains」(機械と脳の学習)プログラムの共同責任者でもあるBengio氏は、同イベントに登壇者として招かれ、1時間半にわたって話をした。このディスカッションシリーズは、「B2Bセールスを最適化するためのAIプラットフォーム」を掲げる、Collective[i]が開催している。

 Bengio氏のこの発言は、聴衆のLaura Wilson氏からの質問に対する回答だ。Wilson氏の質問は、ChatGPTの商業的な可能性の大きさや、ChatGPTの機能を組み込んだMicrosoftの検索エンジン「Bing」などの存在を前提としたときに、AI研究に「倫理的なフレームワークを持たせることは可能なのか」というものだった。

 Benjio氏は、「学術界は今後もオープンな形で研究を続け、成果を共有していくだろう。なぜなら、それが学術界のモデルの一部だからだ」と述べた。

 不透明なのは、産業界の研究が今後もオープンな形で進められていくかどうかだという。

 最近になってAIの研究が盛んに行われるようになり、その成果が公開されるようになるまでは、企業による研究は「より秘密主義的だった」とBengio氏は指摘した。ChatGPTの成功を受けて、AIの世界では「ゴールドラッシュが起きそうな気配がある」ものの、「産業界でこのままオープンな文化が維持されるかどうかは分からない」と同氏は言う。

 Bengio氏によれば、現在のAIの進歩は、研究室の間で異花受粉が行われた結果として起きた集団としての成果であり、論文が果たした役割が非常に大きいという。

 同氏は、GPT-4のようないわゆる大規模言語モデルは「複雑なシステムだ」と述べた。

 「私たちは他の人が書いたコードの上に自分たちのコードを書いている。これは、世界中で科学論文として書かれ、評価されたアイデアを基礎にしているということでもある。私たちは、お互いの進歩を基礎として研究開発を進めている」

 「特許もあることはあるが、実際に重要なことは論文の中に書かれている」

 Bengio氏は秘密主義について、産業界の研究を後退させる可能性があるだけでなく、一般社会に対して与える危害を見えにくくしてしまう可能性があると述べた。

 「性急に動きすぎて物事を破壊してしまうと、悪影響が出るかもしれない」とBengio氏は言う。「そして、それが業界全体に対する反動に繋がる可能性さえある」

 同氏は、一般に小さな企業の方が、テストされていないソフトウェアでリスクを取ることに積極的だと指摘した。なぜなら、それが「ビジネスのルール」だからだという。ここで同氏がほのめかしているのは、ChatGPTのような、開発が不十分で、一部のユーザーが「不愉快だ」と思うような出力を生成する可能性があるプログラムのことだ。

 「しかし今では、GoogleやMicrosoftをはじめとする大企業が、この競争に参加せざるを得ないと感じるようになっている」と同氏は言う。「果たして企業らは、これから世に出すものに、これまでのような慎重な態度で臨めるのか、という懸念を耳にしている」

 AI分野における功績により、Bengio氏とともに2018年の「A.M.チューリング賞(A.M. Turing Award)」を受賞したYann LeCun氏も、同じような懸念を示している。

 MetaのAI担当チーフサイエンティストを務めるLeCun氏は、2月17日のツイートで、次のように述べている。

 FAIR(Facebook AI Research)は、AIの研究開発シーンをオープンなものにする上で大きな役割を果たした。少なくともしばらくの間は、他の企業もそれに続いた。しかし今や、OpenAIやDeepMindは明らかに情報の公開やオープンソース化をしなくなっており、Googleでさえそうなりつつあるかもしれない。このことは、AIの科学と技術の進歩に対してどのような影響を与えるだろうか?

 それでもBengio氏は、ChatGPTのリリースは前向きな目的の役に立つ可能性があるとの見方を示し、その理由として、AIの将来性とリスクの両方を世界に強く認識させている点を挙げた。

 「ChatGPTに関する、いわば報道合戦のような現在の状況について評価できるのは、これが警鐘になっていることだ」と、Bengio氏は指摘した。「人々はこれまでの数年間、AIの進歩を目の当たりにしてきたはずだ。この間、多くの企業や政府は、『なるほど、何かが起きているのだな。でもいつものように技術オタクが熱中しているのだろう』との認識で、きわめて強力なシステムの登場が間近に迫っていることに気付いていなかったのだ」

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. セキュリティ

    Pマーク改訂で何が変わり、何をすればいいのか?まずは改訂の概要と企業に求められる対応を理解しよう

  2. 運用管理

    メールアラートは廃止すべき時が来た! IT運用担当者がゆとりを取り戻す5つの方法

  3. セキュリティ

    従来型のセキュリティでは太刀打ちできない「生成AIによるサイバー攻撃」撃退法のススメ

  4. セキュリティ

    AIサイバー攻撃の増加でフォーティネットが提言、高いセキュリティ意識を実現するトレーニングの重要性

  5. セキュリティ

    クラウド資産を守るための最新の施策、クラウドストライクが提示するチェックリスト

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]