OpenAI、ユーザーが「ChatGPT」の「価値観」を定義できる機能を開発中

Liam Tung (Special to ZDNET.com) 翻訳校正: 編集部

2023-02-20 12:22

 「ChatGPT」が一般公開されてから2カ月あまりが経過したタイミングで、開発元のOpenAIは、ユーザーが同チャットボットの価値観をカスタマイズできるようにすることを決定した。

ChatGPTとOpenAIのロゴを表示したスマホ
提供:Future Publishing / Contributor / Getty Images

 OpenAIの言語モデルを利用する「Bing」のチャットは、憂鬱な気分や自己防衛本能、嫉妬、人間に対する恐怖を感じさせる応答を出力することがあるため、すでに警鐘を鳴らしている人もいる。Elon Musk氏は米国時間2月15日、Bing Chatのとりとめのない応答に関する報道について、「暴走して、すべての人間を殺す『System Shock』のAIに不気味なほど似ているように聞こえる」とツイートした。

 OpenAIは、2015年に非営利の研究所として創設された(Musk氏も共同創設者の1人である)。同研究所は今回、ユーザーがChatGPTの価値観を「定義」して、同チャットボットの挙動を微調整できるようにすることを発表した。Microsoftの支援を受ける同研究所によると、この新機能により、ChatGPTが一部の人々に不快感を与えるテキストを出力するようになることが予想されるという。

 OpenAIはブログ投稿で、「AIはそれぞれのユーザーにとって便利なツールであるべきなので、社会によって定義された制限の範囲内で、各ユーザーがカスタマイズできるべきだとわれわれは考えている。そのため、ユーザーがChatGPTの挙動を簡単にカスタマイズできるようにするアップグレードを現在開発中だ」と述べている。

 「これにより、ほかの人々(私たち自身も含む)が強く反発する可能性のあるテキストが出力されるようになるだろう」

 OpenAIは、これに関して適切なバランスを取るのが難しいことを認めているが、同研究所の権力が強すぎるという意見に反論するために、ユーザーがもっと細かく制御できるようにする必要があると主張する。OpenAIが説明するように、「権力の不当な集中」は同研究所の憲章に反している。

 その一方で、OpenAIは、ユーザーがChatGPTを制御できるようにすることのリスクも認識している。ChatGPTを使用して、偽情報キャンペーンやマルウェアを作成したり、武器やドラッグの製造方法を生成したり、既存の見解を誇張するテキストを作成したりする人が出てくることが予想されるからだ。New York Postは14日、ChatGPTがHunter Biden氏に関する記事を同社の文体で作成することを拒否し、CNNの文体で作成したことについて、不満を漏らした。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. セキュリティ

    「デジタル・フォレンジック」から始まるセキュリティ災禍論--活用したいIT業界の防災マニュアル

  2. 運用管理

    「無線LANがつながらない」という問い合わせにAIで対応、トラブル解決の切り札とは

  3. 運用管理

    Oracle DatabaseのAzure移行時におけるポイント、移行前に確認しておきたい障害対策

  4. 運用管理

    Google Chrome ブラウザ がセキュリティを強化、ゼロトラスト移行で高まるブラウザの重要性

  5. ビジネスアプリケーション

    技術進化でさらに発展するデータサイエンス/アナリティクス、最新の6大トレンドを解説

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]