NVIDIA、データセンター向けの新GPU「H200」を発表--生成AIやHPCで大幅な性能向上

ZDNET Japan Staff

2023-11-14 12:28

 NVIDIAは米国時間11月13日、同社の最新のサーバー向けGPUである「NVIDIA HGX H200」を発表した。「NVIDIA Hopper」アーキテクチャーを使用したこのGPUには、生成人工知能(AI)やハイパフォーマンスコンピューティングの大容量データを扱うために、最新のメモリー技術を採用している。

NVIDIA HGX H200
提供:NVIDIA

 H200は、世界で初めて「HBM3e」のメモリーを搭載したGPUだ。メモリーの容量は141GB、帯域幅は4.8TB/sで、前世代の「NVIDIA A100」と比べ、容量は約2倍、帯域幅は約2.4倍のスペックになっている。大規模なデータを高速に処理できるため、大規模言語モデルを使用した生成AIや、ハイパフォーマンスコンピューティングの処理を大幅に高速化できるという。

 フォームファクターには、4ウェイ構成もしくは8ウェイ構成のNVIDIA HGX H200サーバーボードの2種類が用意される。これらは、前世代のH100とハードウェアとソフトウェアの両面で互換性がある。サーバーメーカーやクラウド事業者からH200を使用した製品やサービスが提供され始めるのは2024年第2四半期になる見込みで、2024年からH200を使用したインスタンスの提供を開始するクラウドプロバイダーのリストには、Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructureの名前が挙がっている。

 H200ではパフォーマンスが劇的に向上しており、NVIDIAは、700億パラメーターの大規模言語モデルである「Llama 2」の場合、前世代のH100を使用した場合と比較して、推論速度が2倍近くに跳ね上がると述べている。また、今後のソフトウェアのアップデートでさらなる速度向上が見込まれるという。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

マイナンバーカードの利用状況を教えてください

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]