AMD、データセンター向け新GPU「Instinct MI200」発表

Stephanie Condon (ZDNET.com) 翻訳校正: 編集部

2021-11-09 13:55

 AMDは米国時間11月8日、新型のデータセンター向けGPU「Instinct MI200」シリーズを発表した。同社によれば、このGPUは2020年に発売された「MI100」を上回る性能を持つ、最速のハイパフォーマンスコンピューティング(HPC)、人工知能(AI)用アクセラレーターだという。

 同社は、Instinct MI200は、既存のデータセンター向けGPUと比べ、HPCにおいて最大4.9倍の性能を発揮すると述べている。また、AIトレーニング用としても最速で、混合精度計算のピークFLOPSで最大1.2倍のパフォーマンスを実現できるという。

 このアクセラレーターには6nmプロセスで製造されたトランジスターが580億個使用されている。AMDは、これによって、最大で220個の演算ユニットを搭載することが可能になり、MI100と比べコンピュート密度が80%以上向上したと述べている。またこの製品は、世界で初めて128GBのHBM2Eメモリーを搭載したGPUでもある。

 MI200は、AMDの第2世代CDNAアーキテクチャーを採用した世界初のマルチダイGPUだ。CDNAアーキテクチャーは、AMDが2020年にデータセンター向けGPUとゲーミング用GPUの設計を分離することを明らかにした際に発表されたもので、データセンターのワークロードに最適化された設計になっている。

 またAMDは、3Dチップレット技術を使用した初のサーバー用第3世代EPYCプロセッサー(コードネーム「Milan-X」)を発表した。この製品は2022年第1四半期に発売される。

 このシリーズのプロセッサーは、従来の第3世代EPYC(コードネーム「Milan」)プロセッサーと比べ3倍のL3キャッシュを持っている。Milanのプロセッサーは1つのCCDに32MBのキャッシュを搭載していたが、Milan-Xでは、CCDあたりのキャッシュが96MBになっている。このCPUは、1ソケットで最大804MBのキャッシュを搭載可能であるため、メモリー帯域幅に対するプレッシャーが軽減され、遅延が短縮される。このことは、アプリケーションの実行速度に大きな影響を与える。

 ソケットレベルで見ると、Milan-Xはテクニカルコンピューティング分野のワークロードの処理に関して最速のサーバー用プロセッサーであり、ターゲットとするテクニカルコンピューティングワークロードでは、Milanのプロセッサーと比べ50%高いパフォーマンスを発揮するという。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]