NVIDIA、データセンター向けの新GPU「H200」を発表--生成AIやHPCで大幅な性能向上

ZDNET Japan Staff

2023-11-14 12:28

 NVIDIAは米国時間11月13日、同社の最新のサーバー向けGPUである「NVIDIA HGX H200」を発表した。「NVIDIA Hopper」アーキテクチャーを使用したこのGPUには、生成人工知能(AI)やハイパフォーマンスコンピューティングの大容量データを扱うために、最新のメモリー技術を採用している。

NVIDIA HGX H200
提供:NVIDIA

 H200は、世界で初めて「HBM3e」のメモリーを搭載したGPUだ。メモリーの容量は141GB、帯域幅は4.8TB/sで、前世代の「NVIDIA A100」と比べ、容量は約2倍、帯域幅は約2.4倍のスペックになっている。大規模なデータを高速に処理できるため、大規模言語モデルを使用した生成AIや、ハイパフォーマンスコンピューティングの処理を大幅に高速化できるという。

 フォームファクターには、4ウェイ構成もしくは8ウェイ構成のNVIDIA HGX H200サーバーボードの2種類が用意される。これらは、前世代のH100とハードウェアとソフトウェアの両面で互換性がある。サーバーメーカーやクラウド事業者からH200を使用した製品やサービスが提供され始めるのは2024年第2四半期になる見込みで、2024年からH200を使用したインスタンスの提供を開始するクラウドプロバイダーのリストには、Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructureの名前が挙がっている。

 H200ではパフォーマンスが劇的に向上しており、NVIDIAは、700億パラメーターの大規模言語モデルである「Llama 2」の場合、前世代のH100を使用した場合と比較して、推論速度が2倍近くに跳ね上がると述べている。また、今後のソフトウェアのアップデートでさらなる速度向上が見込まれるという。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. クラウドコンピューティング

    標準化されたOS「Linux」で実現するIT環境の効率化、検討すべき9つの事項とは

  2. クラウドコンピューティング

    CentOS Linuxアップデート終了の衝撃、最も有力な移行先として注目されるRHELの今

  3. クラウドコンピューティング

    調査結果が示す「Kubernetes」セキュリティの現状、自社の対策強化を実現するには?

  4. OS

    Windows 11移行の不安を“マンガ”でわかりやすく解消!情シスと現場の疑問に応える実践ガイド

  5. 運用管理

    AWSに移行することのメリットと複雑さ--監視ソリューションの導入から活用までを徹底解説

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]