OpenAIの「o3-mini」、AIの推論プロセスを可視化--全ユーザー対象に

Sabrina Ortiz (ZDNET.com) 翻訳校正: 矢倉美登里 吉武稔夫 (ガリレオ)

2025-02-10 09:37

 OpenAIは、「X」(旧Twitter)への投稿を通じて、無料ユーザーも有料ユーザーも、「OpenAI o3-mini」が結論に達するまでに経た推論プロセスを可視化できるようになったと発表した。例えば、Xへの投稿では、「今日はどうして金曜ではないの?」というユーザーの質問に対して、所要時間を示すドロップダウンの下に、回答に至るまでの思考の連鎖の全段階をo3-miniが示している。


 o3-miniがどのようにして結論に達したかが分かれば、ユーザーが結論の精度を検証する助けになるだけでなく、モデルがどうやって回答にたどり着いたかをユーザーに教えてくれるため、役に立つ。これは特に、数学やコーディングのプロンプトにおいて有用で、全段階を確認することで、ユーザーが次に同様の問題に出会った際、その過程をなぞることで自ら正解に至れるかもしれない。

 「ChatGPT」の有料ユーザーは、「high reasoning(高度な推論)」オプションでo3-miniのアップデートされた思考の連鎖も可視化できる。オプション名が示すように、「high reasoning」では、より高度な推論が求められる高度な質問に、より多くのコンピューティングパワーを利用できる。

「思考の連鎖」(Chain of Thought:CoT)とは?

 新機能を発表するXへの投稿で、OpenAIは「思考の連鎖」という用語を用いているが、これは実際には何を意味するのだろうか?

 推論を段階に分けて説明するよう人に求めるのと同じ方法で、CoTプロンプティングは大規模言語モデルに対して、複雑な問題をもっと小さな論理的で解決可能なステップに分割するよう促す。こうした推論のステップをユーザーと共有することにより、大規模言語モデルはさらに解釈可能なものになり、ユーザーは回答をより上手に導き、推論の間違いを見極めることができる。

 raw(生の)CoTは、モデルが問題を推論している時にすべての中間ステップをリアルタイムで表示する。OpenAIは今回のアップデートで、raw CoTを採用せず、ユーザーのために推論を要約している。そのため、多くのAIマニアがXへの投稿にコメントし、新機能への不満を表明している。モデルをより上手に誘導し、不正確な推論を修正できるなど、raw CoTには他にもメリットがあるからだ。


提供:ZDNET
提供:ZDNET

この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]