編集部からのお知らせ
記事まとめ「サードパーティークッキー問題」公開
記事まとめ読み:GIGAスクール

NVIDIAのGPUプラットフォームがArmをサポートへ

Natalie Gagliordi (ZDNet.com) 翻訳校正: 編集部

2019-06-18 11:45

 NVIDIAは米国時間6月17日、同社のGPUプラットフォームにArmのCPUアーキテクチャーのサポートを追加すると発表した。NVIDIAによれば、エネルギー効率に優れ、人工知能(AI)に対応したエクサスケールのスーパーコンピューティングを提供したい考えだ。

 NVIDIAは組み込み市場や自動運転車分野を念頭にArmと提携してきたが、今回のCPUサポートにより、NVIDIAのその他の高速コンピューティングスタックがArmプラットフォームで利用可能になる。さらにNVIDIAはこの提携強化で、スーパーコンピューティング向けのオープンアーキテクチャーを提供する道筋がつくと述べた。

 NVIDIAがスタックの最適化を完了すると、同社はx86、POWER、Armを含む、すべての主要なCPUアーキテクチャーをサポートすることになる。

 NVIDIAの最高経営責任者(CEO)であるJensen Huang氏は、「スーパーコンピューターは科学的発見を行う上で必須の手段だ。エクサスケールのスーパーコンピューティングを達成できれば、人智の境界を飛躍的に押し拡げることができる。従来の計算能力のスケーリングが限界に到達すると、すべてのスーパーコンピューターは処理能力の制約を受けることになる。このため、NVIDIAのCUDAで高速化したコンピューティング能力を、Armのエネルギー効率に優れたCPUアーキテクチャーと組み合わせれば、HPCコミュニティーにエクサスケールの性能をもたらすことができる」と述べた。

 NVIDIAとArmは2019年末までに、スタックをリリースできると見込んでいる。

 さらにNVIDIAは、「世界で22番目に高速なスーパーコンピューター」だと誇る「DGX SuperPOD」を発表した。96台の「NVIDIA DGX-2H」サーバーとMellanoxの相互接続技術を使って構築されており、NVIDIAが自律走行車プラットフォームの頭脳を開発するために利用しているシステムだ。同社によれば、9.4ペタフロップの処理能力を備えるDGX SuperPODは、最新のAIモデルは単一のサーバーやGPU上ではなく、大規模にトレーニングする必要があることを示す好例だという。

 「AIでリーダーシップを発揮したければ、計算インフラストラクチャーでリーダーにならねばならない」と、NVIDIAのAIインフラ担当バイスプレジデントのClement Farabet氏は述べた。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNet Japan 記事を毎朝メールでまとめ読み(登録無料)

特集

CIO

モバイル

セキュリティ

スペシャル

ホワイトペーパー

新着

ランキング

  1. 経営

    Microsoft 365の「データ」は本当に安全?SaaSユーザーのためのデータ保護アプローチ

  2. セキュリティ

    マルチクラウドの本格活用から量子コンピューティングへ、その時鍵を握るデータ保護の仕組みとは?

  3. 運用管理

    最先端のデータサイエンティストでいるための5つのヒント—AIによる高度化でデータの達人であり続ける

  4. ビジネスアプリケーション

    中小企業のためのAI活用--予算も人材も不足していた4社の脱Excelそして入AI実現例

  5. 運用管理

    業務改革の推進者が最初につまずく「現場業務ヒアリング」、通信・製造業、自治体の事例に見る回避策

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNet Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]