海外コメンタリー

「ChatGPT」の奇妙な応答、「恐ろしい」など誇張した表現は不適切

Tiernan Ray (Special to ZDNET.com) 翻訳校正: 石橋啓一郎

2023-03-09 06:30

 OpenAIの「ChatGPT」が、頻繁にニュースの見出しを飾っている。ChatGPTは、人間が書いたかと見紛うようなテキストを生成する人工知能(AI)プログラムだ。最近では、ChatGPTと同系列の技術が、Microsoftの「Bing」に新たに導入されたチャット検索機能のベータ版に使用され、一部のユーザーが不快に思うような奇妙な出力を生成したことで、新たな議論が巻き起こった。

Dall・2で自動生成した、驚く男性の顔の画像
提供:Automatically generated by Dall・2 by OpenA

 残念ながら、ChatGPTに関する報道の中には、それ自体が読者の混乱を招いているものがある。記者たちは読者の注目を引こうとして、ChatGPTに関する新たな発見を些細なものまで先を争って伝えているが、その中には、事実が伝わらないような大げさな表現を使っているものもある。そのため、実際に何が起こっているかが曖昧になってしまい、読者の不利益になるような記事も存在する。

 その典型例が、The New York Timesに掲載された、Kevin Roose氏がBingのベータ版を2時間使ってみた際の経験について書いた実体験レポートだ。Roose氏によれば、このセッション中に、Bingから「シドニー」と名乗る人格が現れ、同氏に愛の告白をし、同氏の結婚生活を貶めて離婚を迫ることすらしたという。

 Roose氏は、このやりとりを経験して「非常に動揺し、恐ろしくさえ感じた」と述べている。

 このような誇張した表現は誤解を招くものだ。本人の主張どおり、もし同氏がAIの仕組みを本当に理解しているのなら、このような大げさな言葉を使うわけがない。AIの語り口が奇妙なものに変わったのは不適切だったかもしれないが、これは「ペルソナ」と呼ばれるよく知られたチャットボットの一面だ。

 ChatGPTのようなAIチャットボットは、コマンドプロンプトに人間が入力した記号に応じて、それを補完するような記号列、あるいはそれに続く可能性が最も高い記号列の、次の記号を生成するようにプログラムされている。プログラムが生成する出力は、特定のジャンルやスタイルに合った形に変えることができ、それがペルソナと呼ばれている。

 例えば、1月にarXivに投稿された研究論文では、IBMの研究者が、OpenAIの別のAIプログラムである「Codex」を使った研究を行っている。Codexは、GitHub上の5400万のリポジトリーに保管されているコードを取り込んで開発されたもので、Microsoftのプログラミング支援サービスである「GitHub Copilot」で使用されている。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]