AMD、データセンター向け新GPU「Instinct MI200」発表

Stephanie Condon (ZDNET.com) 翻訳校正: 編集部

2021-11-09 13:55

 AMDは米国時間11月8日、新型のデータセンター向けGPU「Instinct MI200」シリーズを発表した。同社によれば、このGPUは2020年に発売された「MI100」を上回る性能を持つ、最速のハイパフォーマンスコンピューティング(HPC)、人工知能(AI)用アクセラレーターだという。

 同社は、Instinct MI200は、既存のデータセンター向けGPUと比べ、HPCにおいて最大4.9倍の性能を発揮すると述べている。また、AIトレーニング用としても最速で、混合精度計算のピークFLOPSで最大1.2倍のパフォーマンスを実現できるという。

 このアクセラレーターには6nmプロセスで製造されたトランジスターが580億個使用されている。AMDは、これによって、最大で220個の演算ユニットを搭載することが可能になり、MI100と比べコンピュート密度が80%以上向上したと述べている。またこの製品は、世界で初めて128GBのHBM2Eメモリーを搭載したGPUでもある。

 MI200は、AMDの第2世代CDNAアーキテクチャーを採用した世界初のマルチダイGPUだ。CDNAアーキテクチャーは、AMDが2020年にデータセンター向けGPUとゲーミング用GPUの設計を分離することを明らかにした際に発表されたもので、データセンターのワークロードに最適化された設計になっている。

 またAMDは、3Dチップレット技術を使用した初のサーバー用第3世代EPYCプロセッサー(コードネーム「Milan-X」)を発表した。この製品は2022年第1四半期に発売される。

 このシリーズのプロセッサーは、従来の第3世代EPYC(コードネーム「Milan」)プロセッサーと比べ3倍のL3キャッシュを持っている。Milanのプロセッサーは1つのCCDに32MBのキャッシュを搭載していたが、Milan-Xでは、CCDあたりのキャッシュが96MBになっている。このCPUは、1ソケットで最大804MBのキャッシュを搭載可能であるため、メモリー帯域幅に対するプレッシャーが軽減され、遅延が短縮される。このことは、アプリケーションの実行速度に大きな影響を与える。

 ソケットレベルで見ると、Milan-Xはテクニカルコンピューティング分野のワークロードの処理に関して最速のサーバー用プロセッサーであり、ターゲットとするテクニカルコンピューティングワークロードでは、Milanのプロセッサーと比べ50%高いパフォーマンスを発揮するという。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. セキュリティ

    KADOKAWAらの事例に学ぶ、2024年サイバー攻撃の傾向と対策

  2. セキュリティ

    MDMのよくある“12の悩み”を解決!Apple製品のMDMに「Jamf」を選ぶべき理由を教えます

  3. ビジネスアプリケーション

    生成AIをビジネスにどう活かす?基礎理解から活用事例までを網羅した実践ガイド

  4. セキュリティ

    セキュリティ担当者に贈る、従業員のリテラシーが測れる「情報セキュリティ理解度チェックテスト」

  5. セキュリティ

    「100人100通りの働き方」を目指すサイボウズが、従業員選択制のもとでMacを導入する真の価値

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]