Intelは、ディープラーニング(DL)の訓練および推論向けの最新世代プロセッサー「Habana Gaudi2」「Habana Greco」を発表した。データセンターにおけるワークロードの訓練や推論のデプロイメント向けに高性能、高効率の深層学習コンピュートの選択肢を提供するとともに、どのような規模の企業にもAIの取り組みへの障壁を低減するといった狙いがある。また同社は「Intel Vision」イベントで、ビジネス顧客に向け、同社のIPU(インフラストラクチャープロセシングユニット)とGPUのポートフォリオに関する詳細を明らかにした。
Intel傘下のHabana Labsの最高執行責任者(COO)Eitan Medina氏は、イベントに先駆け、報道陣に対して、「AIはデータセンターのけん引力になっている」と述べた上で、IntelのデータセンターチームはAIのDLプロセッサーテクノロジーに注力していると語った。「これは最も重要な応用であり、最も著しい成長を見せている。しかしさまざまな顧客が独自の応用に向け、それぞれにテクノロジーを組み合わせている」(Medina氏)
Intelがデータセンター向けとして多様なチップに投資しているのは、ユースケースがこのように多岐にわたっているためだ。HabanaプロセッサーはDLタスクのコンピュート能力を必要としている顧客に向けたものだ。例えば、新たなGaudi2プロセッサーによって、自動運転車、医療画像、製造分野での欠陥検出で利用されるアプリケーションのビジョンモデリングを改善できるようになる。Intelは2019年、イスラエルを拠点とするプログラマブルチップメーカーのHabana Labsを約20億ドルで買収している。
第2世代のGaudi2プロセッサー、Grecoプロセッサーはいずれも、前世代で採用していた16nmプロセスではなく7nmプロセスを採用して製造されている。またこれらのプロセッサーはHabanaの高効率アーキテクチャーを採用している。
Intelは同日、Gaudi2と「NVIDIA A100 80GB GPU」を比較した場合、コンピュータービジョンモデルの「ResNet-50」と自然言語処理(NLP)モデル「BERT」の双方で、Gaudi2は2倍の訓練スループットを実現していると紹介した。

提供:Intel
Medina氏は、「同じプロセスノードとほぼ同じダイサイズで製造されているA100 GPUと比較した場合、Gaudi2は同一条件下での主要ワークロードの比較で示されているように、明らかに優れた訓練パフォーマンスを実現している」とし、「DLを高速化するこのアーキテクチャーは、根本的により効率的なものであり、盤石なロードマップに支えられている」と述べた。
Gaudi2が実現する深層学習訓練の効率化に関するさらなる詳細は以下の通りだ。
- 第1世代の「Gaudi」プロセッサーと比較すると、Amazon Web Services(AWS)の「Amazon EC2 DL1」インスタンスや、オンプレミス環境の「Supermicro X12 Gaudi Training Server」で最大40%の価格性能比を実現できる。
- 統合化メディア処理エンジンの採用により、圧縮メディアの取り扱いやホストサブシステムのオフローディングが可能になる。
- Gaudi2は、パッケージ内に搭載している、2.45TB/秒の帯域幅を有するHBM2Eメモリーの容量を32GBから96GBへと3倍に増強している。
- 標準Ethernet利用におけるスケールアップ/スケールアウト用として、チップ上に24×100GbE RoCE RDMA NICを統合している。
Gaudi2プロセッサーはHabanaの顧客向けに、既に提供が開始されている。HabanaはSupermicroとパートナーシップを組んでおり、2022年に「Supermicro Gaudi2 Training Server」を提供しようとしている。
Greco推論プロセッサーは、2022年後半から一部の顧客に向け、サンプル提供が開始される予定だ。
Grecoに関するさらなる詳細は以下の通り。
- カード上のメモリーを強化している。帯域幅は実質的に5倍となり、オンチップメモリーを50MBから128MBへと増強している。
- メディアのデコーディングや処理をプロセッサーに統合している。
- コンピュート効率を向上させるために、デュアルスロットのPCIeカードをシングルスロットのHHHL(half-height half-length)にし、フォームファクターをより小さなものにしている。
IntelのエグゼクティブバイスプレジデントSandra Rivera氏は、「Gaudi2は、ますます大規模で複雑になる深層学習のワークロードを高速に効率的に訓練するよう支援できる」と述べている。
またIntelは、IPUポートフォリオに関する2026年までのロードマップも披露した。まず、クラウド大手、GoogleやFacebookなどのハイパースケーラー向けのIPUを開発したが、現在アクセスを拡大している。

提供:Intel
2022年には2種類のIPUを出荷する。ASIC IPU「Mount Evans」、第2世代FPGA IPU「Oak Springs Canyon」をGoogleなどのプロバイダーに出荷する。2023/2024年には、400GBのIPU「Mount Morgan」「Hot Springs Canyon」、2025/2026年には、次世代の800GB IPUを顧客やパートナーに出荷する予定だ。
Intelは、データセンター向けGPU(開発コード名「Arctic Sound-M/ATS-M」)の詳細も披露した。AV1ハードウェアエンコーダーを搭載する業界初のディスクリートGPUだ。ATS-Mは150兆回/秒(TOPS)の性能を想定している。2つのフォームファクターが用意され、Dell、Supermicro、Cisco、Inspur、H3C、Hewlett Packard Enterprise(HPE)などのパートナーから、15以上の搭載システムが提供される予定だ。2022年第3四半期に提供が開始される見通しだ。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。