OpenAI、ユーザーが「ChatGPT」の「価値観」を定義できる機能を開発中

Liam Tung (Special to ZDNET.com) 翻訳校正: 編集部

2023-02-20 12:22

 「ChatGPT」が一般公開されてから2カ月あまりが経過したタイミングで、開発元のOpenAIは、ユーザーが同チャットボットの価値観をカスタマイズできるようにすることを決定した。

ChatGPTとOpenAIのロゴを表示したスマホ
提供:Future Publishing / Contributor / Getty Images

 OpenAIの言語モデルを利用する「Bing」のチャットは、憂鬱な気分や自己防衛本能、嫉妬、人間に対する恐怖を感じさせる応答を出力することがあるため、すでに警鐘を鳴らしている人もいる。Elon Musk氏は米国時間2月15日、Bing Chatのとりとめのない応答に関する報道について、「暴走して、すべての人間を殺す『System Shock』のAIに不気味なほど似ているように聞こえる」とツイートした。

 OpenAIは、2015年に非営利の研究所として創設された(Musk氏も共同創設者の1人である)。同研究所は今回、ユーザーがChatGPTの価値観を「定義」して、同チャットボットの挙動を微調整できるようにすることを発表した。Microsoftの支援を受ける同研究所によると、この新機能により、ChatGPTが一部の人々に不快感を与えるテキストを出力するようになることが予想されるという。

 OpenAIはブログ投稿で、「AIはそれぞれのユーザーにとって便利なツールであるべきなので、社会によって定義された制限の範囲内で、各ユーザーがカスタマイズできるべきだとわれわれは考えている。そのため、ユーザーがChatGPTの挙動を簡単にカスタマイズできるようにするアップグレードを現在開発中だ」と述べている。

 「これにより、ほかの人々(私たち自身も含む)が強く反発する可能性のあるテキストが出力されるようになるだろう」

 OpenAIは、これに関して適切なバランスを取るのが難しいことを認めているが、同研究所の権力が強すぎるという意見に反論するために、ユーザーがもっと細かく制御できるようにする必要があると主張する。OpenAIが説明するように、「権力の不当な集中」は同研究所の憲章に反している。

 その一方で、OpenAIは、ユーザーがChatGPTを制御できるようにすることのリスクも認識している。ChatGPTを使用して、偽情報キャンペーンやマルウェアを作成したり、武器やドラッグの製造方法を生成したり、既存の見解を誇張するテキストを作成したりする人が出てくることが予想されるからだ。New York Postは14日、ChatGPTがHunter Biden氏に関する記事を同社の文体で作成することを拒否し、CNNの文体で作成したことについて、不満を漏らした。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]