筆者は、OpenAIの最新の大規模言語モデル(LLM)である「GPT-4」をその公開以来使ってきている。OpenAIのサービスを通じてGPT-4にアクセスする唯一の方法は「ChatGPT Plus」をサブスクライブすることであり、その月額料金は20ドル(約2800円)となっている。
OpenAIによると、GPT-4は「その前バージョンである『GPT-3.5』に比べると10倍進歩している」という。
提供:NurPhoto/Getty Images
自らの疑問に対する正確な回答をテキストで返してほしいという場合、この有償サービスは最初の大衆向けバージョンである「GPT-3.5」よりもずっと優れていると筆者は実感している。
誤解しないでもらいたい。GPT-4であっても依然として誤り、つまり「ハルシネーション」(もっともらしいウソ)を生成し得る。しかし、難しい質問に対するスマートな回答を望んでいるのであれば、GPT-4が役立つはずだ。この点を念頭に置いた上で、無償で利用できるGPT-3.5と、有償サービスの「ChatGPT Plus」を通じて利用できるGPT-4の技術的な違いについて説明したい。
OpenAIはGPT-4を「その前バージョンであるGPT-3.5に比べると10倍進歩している。この進歩によって、同モデルは文脈をよりしっかりと理解するとともに、ニュアンスを見極め、より正確かつ筋の通った回答を返せるようになっている」と説明している。同社はその違いを以下の具体的な観点から解説している。
#1:パラメーター数
OpenAIはGPT-4のパラメーター数を公表していない。しかし、AI企業Cerebras Systemsの最高経営責任者(CEO)Andrew Feldman氏によると、GPT-4はおよそ100兆個のパラメーターを用いて訓練されているという。これはGPT-3の1750億個というパラメーター数に比べると桁違いに大きい。
#2:マルチモーダルモデル
GPT-4はマルチモーダルモデルとなっているため、テキストデータと画像データの双方を処理できる。一例を挙げると、プロンプトの一部として画像を受け取り、適切なテキストを応答できる。このためGPT-4は、ユーザーの冷蔵庫内の中身を画像として「視認」し、確認できた食材を用いたレシピを提供することができる。しかし、ChatGPT Plusが返してくるのはテキストだけだ。つまりモナ・リザとよく似た画像を要求した場合、同様の作品について教えてくれるが、画像そのものは返してこない。