Googleは米国時間5月7日、「Cloud TPU v2 Pod」と「Cloud TPU v3 Pod」をベータ版として提供を開始したと発表した。これにより、機械学習(ML)に携わる研究者やエンジニアはより性能の高いMLモデルを一層迅速に反復、訓練できるようになる。これらのポッドは、同社が2016年に披露したカスタムシリコンチップ「Tensor Processing Unit」(TPU)を搭載した複数のラックから構成されている。Googleは、このマルチラック形態により「ML向けのスケーラビリティに富んだスーパーコンピューターを実現」できるとしている。
単一の「Cloud TPU Pod」には、1000を超える個別のTPUチップを搭載できる。それらは2次元トロイダルメッシュネットワークを構成するよう接続され、TPUソフトウェアスタックはさまざまな高水準APIを通じて複数のマシンを単一マシンとしてプログラムできるようになっている。またユーザーは「スライス」という、Cloud TPU Podの一部を利用することもできる。
Cloud TPU v3 Podはパフォーマンスを最大化するために液冷方式を採用しており、各ポッドは100ペタフロップスを超えるコンピューティングパワーを有している。またGoogleによると、1秒あたりに処理できる単純な数値演算の数で比較した場合、このポッド1基で世界のスーパーコンピューター上位5位に匹敵する性能を有している(ただし数値精度自体は低い)という。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。