OpenAI、新たな生成AIモデル「GPT-4o」を発表--無料版も大幅に機能強化

Sabrina Ortiz (ZDNET.com) 翻訳校正: 編集部

2024-05-14 09:09

 OpenAIは米国時間5月13日、ライブストリーミングイベントを開催し、生成AI「ChatGPT」の無料版に対する大規模なアップデートを発表した。音声や画像の支援にも対応することでマルチモーダル機能を提供する。

 同イベントの最大の目玉は、OpenAIの新たな大規模言語モデル(LLM)「GPT-4o」の発表だった。同モデルはGPT-4と同等のインテリジェンスを持ちながら、パフォーマンス向上やテキスト、音声、視覚にまたがるマルチモーダル機能など、従来のモデルから機能強化が図られている。


 また、今回のアップグレードによって、月額20ドルのChatGPT Plus向けに提供されていた機能のほとんどが無料ユーザーにも提供されるようになる。

 例えば、無料ユーザーは、GPT-4レベルのインテリジェンスを活用したり、「ChatGPT Browse with Bing」でウェブから応答を取得したり、データを分析したり、写真やドキュメントについてチャットしたり、「GPTs」を利用したり、「GPT Store」にアクセスしたりできるようになる。これまで、これらの機能は全てChatGPT Plusユーザーのみが利用できるものだった。

 Plusユーザーは引き続き、無料ユーザーの5倍の容量を利用できる。加えて、GPT-4oへの優先アクセス、新しい「macOS」アプリなどのアップグレードも含まれる。一方で、無料ユーザーはGPT-4oの容量がいっぱいになるとGPT-3.5に戻される。

 GPT-4oは、PlusとTeamユーザーは同日から、Enterpriseユーザーは近日中に利用可能となるという。無料ユーザーにも展開されるが、幾つかの利用制限がある。

 ライブストリームで注目を集めたのは、GPT-4oの新しいビデオと音声機能で大幅に強化されたVoice Modeだった。これまでのVoice Modeとは異なり、ユーザーはより自然な会話を体験できるようになった。例えば、ユーザーは音声アシスタントの会話に割り込んだり、さまざまな音声で話させたりすることができる。デモでは、音声アシスタントの歌声や「ドラマチックなロボットボイス」などのトーンが披露された。

 AIアシスタントはまた、ユーザーの環境を文脈として活用し、音声で応答することができる。次のデモでは、ChatGPTのVoice Modeがユーザーとチャットしながら、彼が何を着ているか、どこに座っているかなど、周囲の環境について詳しく説明するのを聞くことができる。


 改良されたVoice Modeは、今後数週間のうちにアルファ版で展開される予定で、ChatGPT Plusのユーザーはいち早くアクセスすることができる。

 さらに、同社は同日から、ChatGPT Plusユーザー向けに新しいmacOSアプリをリリースしており、今後数週間のうちに提供範囲を拡大していく予定だ。「Windows」版の提供は2024年後半の見込みとなっている。

提供:OpenAI
提供:OpenAI

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]