海外コメンタリー

「GPT-3.5」vs「GPT-4」--「ChatGPT Plus」は月額20ドルの価値があるか?

Steven J. Vaughan-Nichols (Special to ZDNET.com) 翻訳校正: 村上雅章 野崎裕子

2023-06-22 06:30

 筆者は、OpenAIの最新の大規模言語モデル(LLM)である「GPT-4」をその公開以来使ってきている。OpenAIのサービスを通じてGPT-4にアクセスする唯一の方法は「ChatGPT Plus」をサブスクライブすることであり、その月額料金は20ドル(約2800円)となっている。

GPT-4
の文字とOpenAIのロゴ
OpenAIによると、GPT-4は「その前バージョンである『GPT-3.5』に比べると10倍進歩している」という。
提供:NurPhoto/Getty Images

 自らの疑問に対する正確な回答をテキストで返してほしいという場合、この有償サービスは最初の大衆向けバージョンである「GPT-3.5」よりもずっと優れていると筆者は実感している。

 誤解しないでもらいたい。GPT-4であっても依然として誤り、つまり「ハルシネーション」(もっともらしいウソ)を生成し得る。しかし、難しい質問に対するスマートな回答を望んでいるのであれば、GPT-4が役立つはずだ。この点を念頭に置いた上で、無償で利用できるGPT-3.5と、有償サービスの「ChatGPT Plus」を通じて利用できるGPT-4の技術的な違いについて説明したい。

 OpenAIはGPT-4を「その前バージョンであるGPT-3.5に比べると10倍進歩している。この進歩によって、同モデルは文脈をよりしっかりと理解するとともに、ニュアンスを見極め、より正確かつ筋の通った回答を返せるようになっている」と説明している。同社はその違いを以下の具体的な観点から解説している。

#1:パラメーター数

 OpenAIはGPT-4のパラメーター数を公表していない。しかし、AI企業Cerebras Systemsの最高経営責任者(CEO)Andrew Feldman氏によると、GPT-4はおよそ100兆個のパラメーターを用いて訓練されているという。これはGPT-3の1750億個というパラメーター数に比べると桁違いに大きい。

#2:マルチモーダルモデル

 GPT-4はマルチモーダルモデルとなっているため、テキストデータと画像データの双方を処理できる。一例を挙げると、プロンプトの一部として画像を受け取り、適切なテキストを応答できる。このためGPT-4は、ユーザーの冷蔵庫内の中身を画像として「視認」し、確認できた食材を用いたレシピを提供することができる。しかし、ChatGPT Plusが返してくるのはテキストだけだ。つまりモナ・リザとよく似た画像を要求した場合、同様の作品について教えてくれるが、画像そのものは返してこない。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

マイナンバーカードの利用状況を教えてください

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]