Googleは先週、最新の生成AIモデル「Gemini 2.0 Flash」をモバイルとデスクトップの全ての「Gemini」アプリユーザーに提供を開始した。その勢いを受けて、同社はGeminiモデルの提供をさらに拡大し、新しいモデルを追加している。
Googleは米国時間2月5日、「Gemini 2.0 Pro」の実験版をリリースすると発表した。同モデルは、同社のAIモデルの中で最大の200万トークンのコンテキストウィンドウを持ち、コーディングや複雑なプロンプトに対応できる高度なモデルとなる。
大きなコンテキストウィンドウを持つことで、モデルは大量の情報を一度に分析・参照でき、追加のコンテキストを含めることで全体的なパフォーマンスと支援能力が向上する。また、コード実行などのツールを利用できるため、さまざまなタスクにも対応できる。
Gemini 2.0 Proは、1年前に発表された「Gemini 1.5 Pro」の後継モデルとして、一般的な能力を評価する「MMLU-Pro」、推論能力を評価する「GPQA(ダイヤモンド)」、Pythonでのコード生成を評価する「LiveCodeBench(v5)」、代数や幾何学などの難しい数学問題を評価する「MATH」などの一連のベンチマークで他のGeminiモデルを上回った。
Gemini 2.0 Proは、「Gemini Advanced」ユーザー向けのドロップダウンメニューで実験的に提供されている。Gemini Advancedを利用するには、月額20ドルの「Google One AI Premium」プランに登録する必要がある。もちろん、Googleは開発者向けのサポートも忘れておらず、Google AI StudioとVertex AIを通じて開発者にも提供している。
また、「Gemini 2.0 Flash」がより多くのGoogle製品で利用できるようになった。同モデルは、大量かつ高頻度のタスクを大規模に処理するのに適してしており、高速な応答と優れたパフォーマンスを提供する。先週発表されたGeminiアプリでの利用に加え、Google AI StudioとVertex AIの「Gemini API」でも使用できるようになっている。
最後に、GoogleはGemini 2.0 Flashに対する好意的な反応を受けて、新しいモデル「Gemini 2.0 Flash-Lite」を導入した。このモデルは、Gemini 2.0 Flashと同様に、100万トークンのコンテキストウィンドウ、マルチモーダル入力、応答速度、コストを維持しながら、より高品質になっているという。Google AI StudioとVertex AIでパブリックプレビューとして利用可能だ。

提供:Getty Images / NurPhoto / Contributor
この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。