AMDは米国時間11月8日、新型のデータセンター向けGPU「Instinct MI200」シリーズを発表した。同社によれば、このGPUは2020年に発売された「MI100」を上回る性能を持つ、最速のハイパフォーマンスコンピューティング(HPC)、人工知能(AI)用アクセラレーターだという。
同社は、Instinct MI200は、既存のデータセンター向けGPUと比べ、HPCにおいて最大4.9倍の性能を発揮すると述べている。また、AIトレーニング用としても最速で、混合精度計算のピークFLOPSで最大1.2倍のパフォーマンスを実現できるという。
このアクセラレーターには6nmプロセスで製造されたトランジスターが580億個使用されている。AMDは、これによって、最大で220個の演算ユニットを搭載することが可能になり、MI100と比べコンピュート密度が80%以上向上したと述べている。またこの製品は、世界で初めて128GBのHBM2Eメモリーを搭載したGPUでもある。
MI200は、AMDの第2世代CDNAアーキテクチャーを採用した世界初のマルチダイGPUだ。CDNAアーキテクチャーは、AMDが2020年にデータセンター向けGPUとゲーミング用GPUの設計を分離することを明らかにした際に発表されたもので、データセンターのワークロードに最適化された設計になっている。
またAMDは、3Dチップレット技術を使用した初のサーバー用第3世代EPYCプロセッサー(コードネーム「Milan-X」)を発表した。この製品は2022年第1四半期に発売される。
このシリーズのプロセッサーは、従来の第3世代EPYC(コードネーム「Milan」)プロセッサーと比べ3倍のL3キャッシュを持っている。Milanのプロセッサーは1つのCCDに32MBのキャッシュを搭載していたが、Milan-Xでは、CCDあたりのキャッシュが96MBになっている。このCPUは、1ソケットで最大804MBのキャッシュを搭載可能であるため、メモリー帯域幅に対するプレッシャーが軽減され、遅延が短縮される。このことは、アプリケーションの実行速度に大きな影響を与える。
ソケットレベルで見ると、Milan-Xはテクニカルコンピューティング分野のワークロードの処理に関して最速のサーバー用プロセッサーであり、ターゲットとするテクニカルコンピューティングワークロードでは、Milanのプロセッサーと比べ50%高いパフォーマンスを発揮するという。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。