AWS、NVIDIAの強力GPU搭載の新インスタンス「P3」提供

Liam Tung (Special to ZDNET.com) 翻訳校正: 編集部

2017-10-27 13:25

 「Amazon Web Services」(AWS)は、同社のクラウドコンピューティングサービス「E3」で、新しいインスタンス「P3」の提供を開始した。このインスタンスは、NVIDIAの「Tesla Volta」アーキテクチャに基づくGPU「Tesla V100」を使用するもので、機械学習モデルのトレーニングを劇的に高速化できるという。

 P3のインスタンスは、大量の演算を必要とする機械学習、深層学習、数値流体力学、金融工学、地震解析、分子モデリング、ゲノムミクスのワークロードを処理することを想定して設計されたものだ。同社は、P3のサービスを使用すれば、高度な深層学習モデルのトレーニングに必要な時間が、数日単位から数時間単位に短縮される場合もあると述べている。P3はNVIDIA Tesla V100 GPUを使用した初めてのインスタンスで、P3のインスタンスは「クラウドで利用できるもっとも強力なGPUインスタンス」だとAWSは述べている。

 利用できるインスタンスは、使用されるTesla V100 GPUの数が1基のもの、4基のもの、8基のものの3種類で、それぞれ「Intel Xeon E5 Broadwell」ベースのカスタムCPUを8基、32基、64基搭載している。

 新インスタンスは、米国東部(バージニア北部)、米国西部(オレゴン)、欧州(アイルランド)、アジアパシフィック(東京)の各リージョンで利用でき、今後はほかのリージョンでも提供予定だという。

 各GPUは5210の「CUDA」コアと640の「Tensor」コアを備えており、深層ニューラルネットワークのトレーニングを高速化するには後者が鍵になる。

 このパワーを利用するにはコストがかかる。例えば東京リージョンでは、P2のGPUインスタンスのオンデマンド利用料が1時間当たり24.67ドルなのに対し、p3.16xlargeは41.94ドルとなっている。またバージニア北部では1時間当たり24.48ドル、アイルランドでは26.44ドルに設定されている。P3のインスタンスには、スポットインスタンスとリザーブドインスタンスも用意されている。

 さらにNVIDIAも、P3インスタンスユーザーが利用できるAI開発者向けの「GPU Cloud」の提供を開始した。これはAWSのAMIに似たサービスで、開発者に「NVCaffe」「Caffe2」「Cognitive Toolkit」「TensorFlow」「CUDA」などのAIフレームワークを提供して高速なP3のインスタンスを利用できるようにする。

NVIDIA Tesla V100 GPU搭載Amazon EC2インスタンスP3
提供:Getty Images/iStockphoto

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]