Googleは米国時間5月20日から年次開発者会議「Google I/O 2025」を開催している。同社は、「Android」「Chrome」「Search」「Workspaces」といった自社の強みを超えて多角化しており、次の分野はAIとなっている。Google I/O 2025の重要な発表を以下にまとめる。
1. Gemini 2.5はより速く、賢く、理論的に
開発者は、Googleが「Gemini 2.5 Pro」を予定より早くリリースしたことを知っておくべきだ。このAIモデルは当初、20日に開催のI/Oで発表される予定だったが、ベータテスターからの圧倒的に肯定的な反応により、数週間前に前倒しでリリースされた。
このスケジュールの変更に伴い、GoogleはGemini 2.5 Proと「Gemini 2.5 Flash」モデルの幾つかの改善を発表した。これには、Gemini 2.5 Proの「Deep Think」サポートが含まれており、AIが応答する前に複数の仮説を検討するために高レベルの研究技術を実行できるようになる。
同社によると、Gemini 2.5 Flashも、推論からマルチモーダル、コーディング、応答効率に至るまで、全体的に強化されたという。同社の評価によれば、必要とするトークン数が20~30%削減された。
また、Gemini 2.5モデルは、Live APIのプレビュー版を通じて、オーディオビジュアル入力とネイティブオーディオ出力を介した対話もサポートする予定であり、開発者は会話体験のトーン、アクセント、話し方を構築し、微調整できるようになる。
2. Geminiは「ユニバーサルAIアシスタント」に
「ワールドモデル」というアイデアは、まるで映画から飛び出してきたかのように聞こえるが、Googleはそれを可能にする基盤を築いたと考えている。
例えば、GoogleのAI動画生成ツール「Veo」は、物理学と物体の相互作用について深い理解を持っており、「Gemini Robotics」は、ロボットがあらゆる環境で操作、運用、適応できることを実証している。
GoogleはGemini 2.5 Proを活用することで、「インテリジェントで、ユーザーがいる状況を理解し、あらゆるデバイスでユーザーに代わって計画を立て、行動できるAI」を構築したいと考えている。
Googleはブラウザーベースのエージェント型AI「Project Mariner」を開発した。これは現在、航空券の予約から調査、買い物まで、最大10種類のタスクを同時に処理できる。この研究プロトタイプの最新版は、まず米国の「Google AI Ultra」ユーザーが利用できるようになる予定だ。
3.Google AI Ultra
Googleは、最新のAI機能を「Google AI Pro」と「Google AI Ultra」の2つのサブスクリプションで提供する。
Proプランには、同社のAI製品の全スイートが含まれるが、無料版よりも高い利用上限と特別な機能が提供される。これには、「Geminiアプリ(Advanced版)」「Flow」「NotebookLM」などが含まれる。
Ultraプランには、最も高い利用上限、Project Mariner、「Veo 3」、Deep Thinkモード搭載のGemini 2.5 Proといった今後の実験的なAI製品への早期アクセスが含まれる。
月額250ドルのサブスクリプションには、Agent Modeへの早期アクセスも含まれている。Agent Modeでは、ライブウェブブラウジングや調査など、デスクトップレベルのプロンプト作成が可能で、残りはGoogleのAIモデルが処理してくれる。
4. Veo、Imagen、Flowは次世代のクリエーターツールに
Googleはまた、生成型メディアモデルの新しいバージョンとして「Veo 3」「Imagen 4」、Flowを発表した。
Veo 3は現在、交通量の多い通りの騒音、公園での鳥のさえずり、キャラクター間の会話など、オーディオプロンプトの生成をサポートしている。以前は、AI動画生成ツールはプロンプトの視覚化しかできず、無音での再生では、実際の動画と比較してコンテンツが単調になっていた。
動画出力をさらに強化するため、GoogleはAI動画制作ツールであるFlowを発表した。これにより、クリエーターはカメラアングルや動きから、キャストや場所まで、動画の制作方法を調整できるようになる。
最後に、Imagen 4は精度と鮮明度が向上し、特に生地の質感、水滴、動物の毛皮といった細かい部分においてその効果が顕著である。このAI画像生成ツールは、さまざまなアスペクト比で最大2K解像度のコンテンツを生成できる。
5. Googleでの検索体験
Googleは2025年に入ってから、検索にAI Modeの展開を開始しており、この機能は現在、米国で広く利用可能になる予定である。「Labs」へのサインアップは不要となり、幾つかの新機能も搭載される。
例えば、AI Modeの「Deep Search」は、バックグラウンドクエリーの数を数十から数百に拡大し、より堅牢で綿密に検討された検索応答をまとめる。その結果、Googleによれば、調査と作成にわずか数分しかかからない、完全に引用されたレポートが生成される。
Google検索は、視覚的な支援として、Project Astraのマルチモーダル機能も搭載する。これによりユーザーは、Google画像検索のように、単にカメラを物体などに向けるだけで、それについて尋ねることが可能になる。
さらに、新しいAI Modeのショッピング体験では、インスピレーションを得たり、購入オプションを絞り込んだりできる。また、自分の画像をアップロードすることで、服を着用した自分を画像生成ツールを通じて確認することも可能である。
Project Marinerのエージェント機能もAI Modeに移行し、ユーザーはGoogleに対し、最高のイベントチケットやレストランの予約を見つけるよう促すことができるようになる。AIは購入を完了しないものの、複数の選択肢を提示し、ユーザーの問い合わせに最も適した選択肢(例えば、最も安い選択肢を検索した場合など)を提示する。
最後に、GoogleはAI Overviewsを200以上の国と地域、そしてアラビア語、中国語、マレー語、ウルドゥー語など40以上の言語に拡大した。