Google Cloudは、「TPU」ホストマシンに直接アクセスできるようにするTPU仮想マシン(VM)「Cloud TPU VM」の一般提供を開始したと発表した。
提供:Shutterstock
今回のリリースには、新しい「TPU Embedding」APIが含まれている。Google Cloudは、これを利用することで機械学習ベースの大規模なランキングやレコメンデーションのワークロードを高速化することができると述べている。
Google Cloudによれば、Cloud TPUによるアクセラレーションの埋め込みは、一般に実行コストが高くなりがちな深層ニューラルネットワークベースのアルゴリズムに依存するランキングやレコメンデーションに関連するコストを下げることができるという。
Google Cloudはブログ記事の中で、「これらは大量のデータを使用する傾向が強く、従来の機械学習インフラでは、トレーニングやデプロイメントが困難かつ高価になる場合がある」と述べている。
「Cloud TPUによるアクセラレーションの埋め込みは、この問題を低いコストで解決することができる。Embedding APIは、専用のインターコネクトで相互接続されたポッド内の数百のCloud TPUチップで自動的にシャーディングを行うことにより、埋め込みテーブルなどの大量のデータを効率的に処理することができる」
さらにTPM VMは、3つの主要なフレームワーク(「TensorFlow」「PyTorch」「JAX」)に対応できるように設計されており、用意された3つの最適化環境から、それぞれのフレームワークを簡単にセットアップできるようになっている。
Google Cloudはまた、TPU VMは入力データパイプラインをTPUホスト上で直接実行できるようにすると付け加えている。この機能を利用すれば、ユーザーは「TensorFlow Text」のような独自のカスタムオペレーションを構築できるため、TensorFlowのランタイムリリースバージョンに縛られることがなくなる。
また、アクセラレーターを搭載したホストでローカルに実行できるため、分散強化学習などのユースケースにも対応できる。
「Cloud TPU VMを使えば、物理的なTPUハードウェアが取り付けられている同じホストでインタラクティブに作業することができる」とGoogle Cloudは述べている。
「当社の急速に成長しつつあるTPUユーザーコミュニティは、このアクセスの仕組みを積極的に採用している。これは、デバッグが容易になるだけでなく、(ネットワークでTPUにアクセスする)TPU Nodeのアーキテクチャーでは現実的ではない、分散強化学習などの一部のトレーニング環境も可能になるためだ」
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。