Googleは米国時間5月8日、開発者向けカンファレンス「Google I/O」で、同社の機械学習(ML)ライブラリ「TensorFlow」向け専用チップ「Tensor Processing Unit」(TPU)の3世代目となる「TPU 3.0」の概要を発表した。
Googleの最高経営責任者(CEO)Sundar Pichai氏によって発表されたTPU 3.0は、MLおよびモデルの訓練を加速させるための専用プロセッサだ。
同社は人工知能(AI)に注力しており、「Googleアシスタント」をよりスマートに、そしてより自然に会話できるようにするための取り組みを続けているが、それには高い処理能力が必要となる。
これらTPUは、研究者や開発者、企業によって利用されるTensorFlowのワークロードを処理している。なお、TPU 3.0は主に「Google Cloud」を通じて使用されることになる。
Pichai氏は、TPU 3.0のポッドが、2017年に発表されたTPU 2.0のポッドに比べると8倍パワフルだと述べるにとどまり、詳細についてはそう多くを語らなかった。
同氏は「これらのチップはあまりにもパワフルであるため、われわれのデータセンターに初めて液冷設備を導入しなければならなくなった」と述べた。TPU 3.0 podは最大100ペタFLOPSという処理性能を有している。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。