Google Cloud PlatformでNVIDIAの「P100」GPUをベータ提供

Adrian Kingsley-Hughes (ZDNET.com) 翻訳校正: 編集部

2017-09-22 10:32

 Googleは米国時間9月21日、「Google Cloud Platform」の処理能力強化に向け、「Google Compute Engine」上でNVIDIAの高性能GPUである「NVIDIA Tesla K80」の一般提供を開始するとともに、「NVIDIA Tesla P100」のベータ提供を開始したと発表した。

 いずれのGPUに対しても「Sustained Use Discounts」(継続利用割引)が提供されるため、例えば1カ月のうちの仮想マシン(VM)利用率が50%の場合、実質的に10%の割引が受けられ、100%に達した場合には30%の割引が受けられる。

 Googleは、Tesla P100を使用することで、Tesla K80を使用する場合に比べてワークロードを最大10倍高速化できるとしている。

 これらのGPUは世界の4リージョンで提供される。

Google Cloudの世界4リージョンでGPU提供
提供:Google

 Googleによると、GPUの採用によって、クラウドにおける柔軟性やパフォーマンス、コストの削減が従来のソリューションとは比較にならないほど向上するという。

  • 柔軟性:Googleのカスタマイズ可能なVMと、随時追加可能なクラウドGPUにより、究極の柔軟性が提供される。これにより、CPUやメモリ、ディスク、GPUといった設定をニーズに最も適したかたちにカスタマイズできる。
  • 高パフォーマンス:クラウドGPUは、本来のパフォーマンスを発揮できるよう、パススルーモードで提供される。VM毎に最大で4基のP100、あるいは8基のK80(最大4枚のK80ボードをサポートしており、K80はボード上に2基のGPUを搭載している)をアタッチできる。より高いディスクパフォーマンスが必要な場合、任意のGPU VMに対して最大3テラバイトのローカルSSDをアタッチできるオプションも用意されている。
  • 低コスト:クラウドGPUには、他のGCPリソースを使用する場合と同様に、1分単位の課金と継続利用割引が適用される。必要なリソースに対してのみ支払えば済むわけだ。
  • クラウド統合:クラウドGPUは、スタックの全レベルで利用可能となっている。インフラレベルではCompute Engineと、「Google Container Engine」によって、VMやコンテナを用いてGPUワークロードを実行できる。機械学習分野では、「Google Cloud Machine Learning」においてGPUを用いるオプション設定が可能になるため、「TensorFlow」を用いた大規模モデルの訓練時間を短縮できるようになる。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. セキュリティ

    Pマーク改訂で何が変わり、何をすればいいのか?まずは改訂の概要と企業に求められる対応を理解しよう

  2. 運用管理

    メールアラートは廃止すべき時が来た! IT運用担当者がゆとりを取り戻す5つの方法

  3. セキュリティ

    従来型のセキュリティでは太刀打ちできない「生成AIによるサイバー攻撃」撃退法のススメ

  4. セキュリティ

    AIサイバー攻撃の増加でフォーティネットが提言、高いセキュリティ意識を実現するトレーニングの重要性

  5. セキュリティ

    クラウド資産を守るための最新の施策、クラウドストライクが提示するチェックリスト

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]