Google Cloud PlatformでNVIDIAの「P100」GPUをベータ提供

Adrian Kingsley-Hughes (ZDNET.com) 翻訳校正: 編集部

2017-09-22 10:32

 Googleは米国時間9月21日、「Google Cloud Platform」の処理能力強化に向け、「Google Compute Engine」上でNVIDIAの高性能GPUである「NVIDIA Tesla K80」の一般提供を開始するとともに、「NVIDIA Tesla P100」のベータ提供を開始したと発表した。

 いずれのGPUに対しても「Sustained Use Discounts」(継続利用割引)が提供されるため、例えば1カ月のうちの仮想マシン(VM)利用率が50%の場合、実質的に10%の割引が受けられ、100%に達した場合には30%の割引が受けられる。

 Googleは、Tesla P100を使用することで、Tesla K80を使用する場合に比べてワークロードを最大10倍高速化できるとしている。

 これらのGPUは世界の4リージョンで提供される。

Google Cloudの世界4リージョンでGPU提供
提供:Google

 Googleによると、GPUの採用によって、クラウドにおける柔軟性やパフォーマンス、コストの削減が従来のソリューションとは比較にならないほど向上するという。

  • 柔軟性:Googleのカスタマイズ可能なVMと、随時追加可能なクラウドGPUにより、究極の柔軟性が提供される。これにより、CPUやメモリ、ディスク、GPUといった設定をニーズに最も適したかたちにカスタマイズできる。
  • 高パフォーマンス:クラウドGPUは、本来のパフォーマンスを発揮できるよう、パススルーモードで提供される。VM毎に最大で4基のP100、あるいは8基のK80(最大4枚のK80ボードをサポートしており、K80はボード上に2基のGPUを搭載している)をアタッチできる。より高いディスクパフォーマンスが必要な場合、任意のGPU VMに対して最大3テラバイトのローカルSSDをアタッチできるオプションも用意されている。
  • 低コスト:クラウドGPUには、他のGCPリソースを使用する場合と同様に、1分単位の課金と継続利用割引が適用される。必要なリソースに対してのみ支払えば済むわけだ。
  • クラウド統合:クラウドGPUは、スタックの全レベルで利用可能となっている。インフラレベルではCompute Engineと、「Google Container Engine」によって、VMやコンテナを用いてGPUワークロードを実行できる。機械学習分野では、「Google Cloud Machine Learning」においてGPUを用いるオプション設定が可能になるため、「TensorFlow」を用いた大規模モデルの訓練時間を短縮できるようになる。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]