「ChatGPT」が一般公開されてから2カ月あまりが経過したタイミングで、開発元のOpenAIは、ユーザーが同チャットボットの価値観をカスタマイズできるようにすることを決定した。
提供:Future Publishing / Contributor / Getty Images
OpenAIの言語モデルを利用する「Bing」のチャットは、憂鬱な気分や自己防衛本能、嫉妬、人間に対する恐怖を感じさせる応答を出力することがあるため、すでに警鐘を鳴らしている人もいる。Elon Musk氏は米国時間2月15日、Bing Chatのとりとめのない応答に関する報道について、「暴走して、すべての人間を殺す『System Shock』のAIに不気味なほど似ているように聞こえる」とツイートした。
OpenAIは、2015年に非営利の研究所として創設された(Musk氏も共同創設者の1人である)。同研究所は今回、ユーザーがChatGPTの価値観を「定義」して、同チャットボットの挙動を微調整できるようにすることを発表した。Microsoftの支援を受ける同研究所によると、この新機能により、ChatGPTが一部の人々に不快感を与えるテキストを出力するようになることが予想されるという。
OpenAIはブログ投稿で、「AIはそれぞれのユーザーにとって便利なツールであるべきなので、社会によって定義された制限の範囲内で、各ユーザーがカスタマイズできるべきだとわれわれは考えている。そのため、ユーザーがChatGPTの挙動を簡単にカスタマイズできるようにするアップグレードを現在開発中だ」と述べている。
「これにより、ほかの人々(私たち自身も含む)が強く反発する可能性のあるテキストが出力されるようになるだろう」
OpenAIは、これに関して適切なバランスを取るのが難しいことを認めているが、同研究所の権力が強すぎるという意見に反論するために、ユーザーがもっと細かく制御できるようにする必要があると主張する。OpenAIが説明するように、「権力の不当な集中」は同研究所の憲章に反している。
その一方で、OpenAIは、ユーザーがChatGPTを制御できるようにすることのリスクも認識している。ChatGPTを使用して、偽情報キャンペーンやマルウェアを作成したり、武器やドラッグの製造方法を生成したり、既存の見解を誇張するテキストを作成したりする人が出てくることが予想されるからだ。New York Postは14日、ChatGPTがHunter Biden氏に関する記事を同社の文体で作成することを拒否し、CNNの文体で作成したことについて、不満を漏らした。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。