「Amazon Web Services」(AWS)は、同社のクラウドコンピューティングサービス「E3」で、新しいインスタンス「P3」の提供を開始した。このインスタンスは、NVIDIAの「Tesla Volta」アーキテクチャに基づくGPU「Tesla V100」を使用するもので、機械学習モデルのトレーニングを劇的に高速化できるという。
P3のインスタンスは、大量の演算を必要とする機械学習、深層学習、数値流体力学、金融工学、地震解析、分子モデリング、ゲノムミクスのワークロードを処理することを想定して設計されたものだ。同社は、P3のサービスを使用すれば、高度な深層学習モデルのトレーニングに必要な時間が、数日単位から数時間単位に短縮される場合もあると述べている。P3はNVIDIA Tesla V100 GPUを使用した初めてのインスタンスで、P3のインスタンスは「クラウドで利用できるもっとも強力なGPUインスタンス」だとAWSは述べている。
利用できるインスタンスは、使用されるTesla V100 GPUの数が1基のもの、4基のもの、8基のものの3種類で、それぞれ「Intel Xeon E5 Broadwell」ベースのカスタムCPUを8基、32基、64基搭載している。
新インスタンスは、米国東部(バージニア北部)、米国西部(オレゴン)、欧州(アイルランド)、アジアパシフィック(東京)の各リージョンで利用でき、今後はほかのリージョンでも提供予定だという。
各GPUは5210の「CUDA」コアと640の「Tensor」コアを備えており、深層ニューラルネットワークのトレーニングを高速化するには後者が鍵になる。
このパワーを利用するにはコストがかかる。例えば東京リージョンでは、P2のGPUインスタンスのオンデマンド利用料が1時間当たり24.67ドルなのに対し、p3.16xlargeは41.94ドルとなっている。またバージニア北部では1時間当たり24.48ドル、アイルランドでは26.44ドルに設定されている。P3のインスタンスには、スポットインスタンスとリザーブドインスタンスも用意されている。
さらにNVIDIAも、P3インスタンスユーザーが利用できるAI開発者向けの「GPU Cloud」の提供を開始した。これはAWSのAMIに似たサービスで、開発者に「NVCaffe」「Caffe2」「Cognitive Toolkit」「TensorFlow」「CUDA」などのAIフレームワークを提供して高速なP3のインスタンスを利用できるようにする。
提供:Getty Images/iStockphoto
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。