編集部からのお知らせ
解説集:台頭するロボット市場のいま
解説集:データ活用で考えるデータの選び方

AI向けGPUベースのサーバを提供--Dell EMC、HPE、IBMなどがNVIDIA採用

NO BUDGET

2017-10-06 10:48

 NVIDIAは9月27日、システムパートナーであるDell EMC、Hewlett Packard Enterprise(HPE)、IBM、SupermicroがNVIDIA Voltaアーキテクチャベースの「Tesla V100 GPU アクセラレータ」を搭載した10種を超えるサーバを提供開始すると発表した。

 Tesla V100 GPU アクセラレータは、人工知能(AI)をはじめとする演算負荷の高いワークロードに適したGPU。1GPUあたり120テラフロップスを超えるディープラーニング性能を提供するため独自に設計した。AIのディープラーニングトレーニングと推論、ハイパフォーマンスコンピューティング、高速分析など、要求の厳しいワークロードに必要なコンピューティング性能を提供する。

  同製品は、210億個以上のトランジスタのほか、640個のTensor Core、最新のNVLink高速インターコネクトテクノロジ、900GB/秒のHBM2 DRAMを搭載し、前世代のGPUに比べてメモリ帯域幅を50%向上させた。Volta GPU1基でCPU100基に相当するパフォーマンスを実現するため、データ科学者や研究者、エンジニアは、これまで解決できなかった課題に取り組める。

  Dell EMCの製品では、PowerEdge R740(PCIe 用 V100 GPU を最大3基サポート)、PowerEdge R740XD(PCIe用 V100 GPU を最大3基サポート)、PowerEdge C4130(PCIe 用 V100 GPU を最大4基、またはSXM2フォームファクターで NVIDIA NVLink インターコネクトテクノロジ対応 V100 GPU を最大 4 基サポート)を提供する。

 HPEは、HPE Apollo 6500(PCIe用 V100 GPU を最大8基サポート)と HPE ProLiant DL380システム(PCIe用 V100 GPUを最大3基サポート)を提供する。

 IBMは、POWER9プロセッサベースの次世代IBM Power Systemsサーバに複数のV100 GPUを搭載し、最新世代のNVLinkインターコネクトテクノロジが利用される予定。これにより、GPU間の高速相互接続や、CPUとGPU間における業界固有のOpenPOWERデザインでの最大スループットが実現する。

 Supermicroの新しいVolta GPUをサポートしている製品には、さまざまな用途に適したハイパフォーマンスGPUコンピューティング向けの7048GR-TR ワークステーション、4028GR-TXRT、4028GR-TRT、4028GR-TR2の各サーバなどがある。これらは、最も要求の厳しいディープラーニングアプリケーションの処理を想定して設計したもので、高度な分析などの用途を想定して開発された1028GQ-TRTサーバが含まれる。

ZDNet Japan 記事を毎朝メールでまとめ読み(登録無料)

Special PR

特集

CIO

セキュリティ

スペシャル

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNet Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]