Googleは米国時間9月21日、「Google Cloud Platform」の処理能力強化に向け、「Google Compute Engine」上でNVIDIAの高性能GPUである「NVIDIA Tesla K80」の一般提供を開始するとともに、「NVIDIA Tesla P100」のベータ提供を開始したと発表した。
いずれのGPUに対しても「Sustained Use Discounts」(継続利用割引)が提供されるため、例えば1カ月のうちの仮想マシン(VM)利用率が50%の場合、実質的に10%の割引が受けられ、100%に達した場合には30%の割引が受けられる。
Googleは、Tesla P100を使用することで、Tesla K80を使用する場合に比べてワークロードを最大10倍高速化できるとしている。
これらのGPUは世界の4リージョンで提供される。
提供:Google
Googleによると、GPUの採用によって、クラウドにおける柔軟性やパフォーマンス、コストの削減が従来のソリューションとは比較にならないほど向上するという。
- 柔軟性:Googleのカスタマイズ可能なVMと、随時追加可能なクラウドGPUにより、究極の柔軟性が提供される。これにより、CPUやメモリ、ディスク、GPUといった設定をニーズに最も適したかたちにカスタマイズできる。
- 高パフォーマンス:クラウドGPUは、本来のパフォーマンスを発揮できるよう、パススルーモードで提供される。VM毎に最大で4基のP100、あるいは8基のK80(最大4枚のK80ボードをサポートしており、K80はボード上に2基のGPUを搭載している)をアタッチできる。より高いディスクパフォーマンスが必要な場合、任意のGPU VMに対して最大3テラバイトのローカルSSDをアタッチできるオプションも用意されている。
- 低コスト:クラウドGPUには、他のGCPリソースを使用する場合と同様に、1分単位の課金と継続利用割引が適用される。必要なリソースに対してのみ支払えば済むわけだ。
- クラウド統合:クラウドGPUは、スタックの全レベルで利用可能となっている。インフラレベルではCompute Engineと、「Google Container Engine」によって、VMやコンテナを用いてGPUワークロードを実行できる。機械学習分野では、「Google Cloud Machine Learning」においてGPUを用いるオプション設定が可能になるため、「TensorFlow」を用いた大規模モデルの訓練時間を短縮できるようになる。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。