グーグル、「Google Kubernetes Engine」の強化でAIイノベーションを加速

Lance Whitney (Special to ZDNET.com) 翻訳校正: 編集部

2025-04-10 11:03

 誰も彼もがAIに投資しているが、Googleには、AI関連のサービスに力を入れるべき多くの理由がある。2024年末の社内会議で、最高経営責任者(CEO)のSundar Pichai氏は、「2025年には(AI)技術の利点を最大限に引き出し、実際のユーザーの問題を解決することに、絶え間なく集中する必要がある」と強調した。

 そのビジョンを実現するため、米国ラスベガスで開催の年次カンファレンス「Google Cloud Next 2025」において、「Kubernetes」および「Google Kubernetes Engine (GKE) 」の大幅な強化が発表された。これは、インフラチームと開発者が、これまでのKubernetesのスキルを最大限に活用しながら、AI分野で成果を上げられるようにすることを目指している。

 GoogleのCloud Runtimes担当バイスプレジデント(VP)であるGabe Monroy氏は、「Kubernetesのスキルと投資は、単に今の時代に関係があるというだけでなく、AI分野で非常に大きな力を発揮するための源になる」と述べた。

 では、具体的な機能強化について詳しく見ていこう。

AIクラスター管理の簡素化:GKEは、「Cluster Director」(旧Hypercompute Cluster)などのツールを通じて、AIクラスターの管理を簡素化する。この機能強化により、ユーザーはNVIDIA GPUを搭載した大規模な仮想マシン(VM)クラスターを展開、管理できるようになる。この機能は、AI関連の作業負荷を効率的に拡張する場合に特に役立つ。

 関連サービスとして、Slurm用のCluster Directorも提供される予定である。Slurmは、オープンソースのLinux向けジョブスケジューラー/ワークロードマネージャーである。このツールは、クラスターを管理し、高性能コンピューティング(HPC)のジョブをスケジュールする。Googleは、Slurmクラスターを構築・運用するために、簡素化されたユーザーインターフェース(UI)とアプリケーションプログラミングインターフェース(API)を提供する。デプロイメントの信頼性と再現性を高めるため、事前設定済みソフトウェアを備えた典型的なワークロードのブループリントなども用意する。

AIモデル展開の最適化:「GKE Inference Quickstart」や「GKE Inference Gateway」など、AIモデルの配置・展開を最適化する機能を提供する。これらのツールは、AIモデルのインフラ選定とデプロイを簡素化し、ベンチマークに基づく性能特性とインテリジェントな負荷分散を保証する。

 Monroy氏は、「AIの時代に明確な傾向が見られる。それは、従来のコンピューティングとニューラルネットワークが組み合わさる場所、つまり『推論』と呼ばれる処理において、非常に革新的な技術が生まれているということだ。LiveXやMolocoのように、KubernetesとAIの最先端で事業を展開している企業は、GKE上でAIの推論処理を実行している」と述べた。

費用対効果の高い推論:GKE Inference Gatewayなどの機能により、費用対効果の高い推論をサポートする。Monroy氏によると、このアプローチにより、他のマネージドおよびオープンソースのKubernetesサービスと比較して、サービングコストが最大30%削減、レイテンシーが最大60%短縮、スループットが40%向上すると述べた。

 AIモデルの応答速度は、リクエストごとに大きく変動するのが普通なので、応答にかかる時間も大きく変わる。そのため、順番に処理するラウンドロビンなどの従来の負荷分散方法では、処理が滞ったり、AI処理を高速化するリソースが十分に活用されなかったりする問題が起こりやすくなる。そこで、GKE Inference Gatewayは、AIモデルの特性を考慮した負荷分散機能を持ち、どのモデルにリクエストを振り分けるかを最適化するゲートウェイを提供する。

リソース効率の向上:リソース効率の向上にも重点が置かれている。「GKE Autopilot」は、ポッドのスケジュール設定、スケーリングの反応速度、容量の適正化を高速化する。これにより、ユーザーは同じリソースでより多くのトラフィックを処理したり、より少ないリソースで既存のトラフィックを処理したりできるようになる。Googleは、Autopilotの改良により、クラスターの容量は常に適切に調整されると述べている。

 GKE Autopilotは現在、ベストプラクティスクラスター構成ツールと、コンテナー最適化コンピューティングプラットフォームで構成されている。この仕組みでは、特定のクラスター構成を使用せずに、既存のクラスターのサイズを適切に変更することはできない。これに対応するため、2025年第3四半期から、Autopilotのコンテナー最適化コンピューティングプラットフォームは、特定のクラスター構成を必要とせずに、標準のGKEクラスターでも利用できるようになる。

Gemini Cloud Assist:Gemini Cloud Assistは、アプリケーションの開発から運用まで、ライフサイクル全体でAIによる支援を提供する。同社は、ユーザーが問題の根本原因を把握し、迅速に解決できるようにする「Gemini Cloud Assist Investigations」のプライベートプレビュー版を公開する。

 最大の利点は、GKEコンソールから直接利用できるため、トラブルシューティングにかかる時間を削減し、より多くの時間をイノベーションに費やせるようになることだ。具体的には、GKEコンソール上でポッドやクラスターの問題を診断できるようになる。さらに、ノード、IAM(Identity and Access Management)、ロードバランサーなど、ほかのGoogle Cloudサービスにまたがって診断を行うことも可能だ。これにより、複数のGKEサービス、コントローラー、ポッド、および基盤となるノード全体のログとエラーをまとめて確認できる。

提供:Joan Cros/NurPhoto via Getty Images
提供:Joan Cros/NurPhoto via Getty Images

この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]