Googleは年次開発者イベント「Google I/O」で人工知能(AI)関連の新しいAIツールと機能を多数発表し、「Gemini」という言葉を95回、「AI」という言葉を92回使用した。しかし、今回のイベント全体で最も重要な発表はAI機能ではなく、「Android XR」スマートグラスだった。このスマートグラスは、I/Oで披露された2つのハードウェア製品の1つである。
Googleは待望のスマートグラスを初めて一般公開した。このスマートグラスは、Geminiのアシスタント機能、レンズ内ディスプレー、スピーカー、カメラ、マイクを従来のメガネのフォームファクターに詰め込んだものだ。筆者は、このスマートグラスを5分間装着する機会を得られたので、Geminiの視覚的なアシスタンス、写真撮影、道案内といった用途のデモを一通り体験してみた。
筆者はMetaの「Ray-Ban Metaスマートグラス」も使用しているので、これら2つのスマートグラスの類似点と相違点に気づかずにはいられなかった。また、Ray-Ban Metaスマートグラスでも利用できればいいのにと感じた機能もいくつかあった。
1. レンズ内ディスプレー

提供:Kerry Wan/ZDNET
Android XRスマートグラスとRay-Ban Metaの最大の違いは、レンズ内ディスプレーの有無だ。Android XRスマートグラスにはディスプレーが搭載されており、通知の受信や音声のリアルタイム翻訳、Geminiとのチャット、都市の道案内など、テキストを使用するあらゆる場面で真価を発揮する。
提供:Google
一方、Ray-Ban Metaにはディスプレーが搭載されていない。Hallidayなど、ディスプレーを搭載するスマートグラスは他にもあるが、ディスプレーを確認するには、視線を上に向けて、フレームに配置された光学モジュールを見る必要があるため、Android XRスマートグラスに比べると、不自然な体験だ。また、ディスプレーが鮮明ではないため、表示できる内容に制限がある。テキスト以外の要素を表示できる機能は、スマートグラス体験を新たな次元に引き上げるだろう。
例えば、デモで一番面白かったのは、スマートグラスで写真を撮ることだった。レンズ上部のボタンをクリックすると、写真を撮ることができた。これはRay-Ban Metaと同じだ。しかし、撮影後にレンズに表示される写真がカラーで、しかもかなり鮮明である点が異なっていた。
画像を見られることは特に有用ではなかったが、日常的に使用するアイウェアに多層的な常時表示ディスプレーが統合される未来とさまざまな可能性を垣間見ることができた。
2. Geminiアシスタント

提供:Kerry Wan/ZDNET
Googleは、最新のGeminiモデルの統合によって、Geminiアシスタントを継続的に改良し、より優秀で信頼性の高いAIアシスタントへと進化させている。結局のところ、「最高」のAIアシスタントは個人の好みやユースケースによって異なるが、長年にわたってさまざまなモデルのテストと比較してきた経験から判断すると、Geminiは「Meta AI」(Ray-Ban Metaスマートグラスに現在搭載されているアシスタント)よりも優れている。
Geminiの方が好きな理由はいくつかある。例えば、「Deep Research」、高度なコード生成機能、より細かいニュアンスを汲み取る会話機能などだ。現在のところ、これらはGeminiがMeta AIよりも優れている分野である。もう1つの顕著な違いは、コンテンツの安全性だ。
例えば、Geminiが政治家の画像など、扱いに細心の注意を要するコンテンツの生成に関して、より厳格な安全対策を設けているのに対し、Meta AIの対策はそれほど厳しくない。Geminiの機能群がAndroid XRスマートグラスにどれだけ引き継がれるのかはまだ不明だが、もし完全な体験が実装されれば、Android XRは競争で優位に立てると思う。