NVIDIA、「HGX-2」を発表--HPCとAIのワークロード向けプラットフォーム

Stephanie Condon (ZDNET.com) 翻訳校正: 編集部

2018-05-31 10:41

 NVIDIAは米国時間5月29日、新たなサーバプラットフォーム「HGX-2」を発表した。HGX-2は、高性能コンピューティング(HPC)と人工知能(AI)という双方の能力を必要とするアプリケーションが増加するなか、需要に応えるべく設計されたプラットフォームだ。

HGX-2の構成

 同社によると、このプラットフォームはHPCとAIのワークロード双方を取り扱える高精度計算機能を提供する初の製品だという。同製品は、科学技術計算やシミュレーション用として64ビット浮動小数点(FP64)演算機能と32ビット浮動小数点(FP32)演算機能を搭載するとともに、AIの訓練や推論用として16ビット浮動小数点(FP16)演算機能と8ビット整数(INT8)演算機能を搭載している。

 HGX-2サーバプラットフォームは1対の基板から構成されている。各基板には8基の「NVIDIA Tesla V100 Tensor Core GPU」(32Gバイト)が搭載されている。これら16基のGPUは12の「NVIDIA NVSwitch」を介して完全接続されており、全体で2ペタFLOPSのAI性能を実現している。

 NVIDIAが最近発表した旗艦サーバ「NVIDIA DGX-2」は、このHGX-2を用いて構築された最初のシステムだ。

 同社によると、ディープラーニング(DL)の訓練においてはHGX-2単体で、CPUのみを搭載したサーバ最大300台分に匹敵する性能を有しており、ResNet-50を使用した訓練のベンチマークで1秒あたり1万5500枚の画像処理を達成しているという。

 既に4社のサーバメーカー(LenovoとQCT、Supermicro、Wiwynn)が、HGX-2搭載システムを2018年中に市場に投入する計画を発表している。さらに、4社の相手先ブランド設計製造業者(FoxconnとInventec、Quanta、Wistron)が大規模クラウドデータセンター向けのHGX-2搭載システムの設計を行っている。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]