NVIDIAとVMwareは米国時間8月26日、顧客のオンプレミス環境上で、あるいはAmazon Web Services(AWS)の「VMware Cloud on AWS」の一部として、GPUの仮想化を実現する新たなソフトウェア製品を発表した。両社はこれを、GPUによって人工知能(AI)や機械学習(ML)、ディープラーニング(DL)のワークロードを高速化する初のハイブリッドクラウド製品だとしている。
NVIDIAの製品管理担当バイスプレジデントであるJohn Fanelli氏は報道陣に対して、「今日のデータセンターにおいて、企業はAIやDL、アナリティクスの性能強化のためにGPUを活用しようとしている」と述べ、「そして、この種のワークロードの規模ゆえに、一部の処理をデータセンター内のオンプレミス環境上で行い、別の処理をクラウド上で行うといったことを継続的に繰り返している」と述べた。
新製品の第一弾は、「Virtual Compute Server」(vComputeServer)ソフトウェアという、大企業向けのデータセンター製品だ。この製品は「VMware vSphere」に最適化されており、Cisco SystemsやDell、レノボ、Supermicroといった主要OEM企業から提供される予定だ。
vComputeServerは、カリフォルニア州サンフランシスコで25日から開催されている「VMworld 2019 US」カンファレンスで発表された。同カンファレンスには、積極的にデータ科学者を雇用し、プロプライエタリなデータや、公開されているデータから多様な洞察を得ようとしている企業が参加している。Fanelli氏によると、このような企業は既にNVIDIAの「RAPIDS」を使用しているかもしれないという。RAPIDSはデータサイエンスのワークフローにおいて、GPUアクセラレーションを可能にするためのデータ処理/MLライブラリー群だ。
vComputeServerは、RAPIDSとともにコンテナもサポートしている。さらに、GPUシェアリング(共有)や、単一ユーザーによる大規模作業を可能にするGPUアグリゲーション(集約)もサポートしている。
このテクノロジーはGPU単位でライセンスされる予定だ。Fanelli氏によると、仮想化で生じるパフォーマンスへの影響は、ワークロードに依存するが、たいていの場合は5%未満だという。同氏は、これがトレードオフの関係にあると述べたうえで、顧客は管理可能性や柔軟性といった仮想化のメリットを活用しようとするはずだと続けた。
さらにVMwareは、VMware Cloud on AWS上でもvComputeServerを利用可能にしようとしている。VMware Cloud on AWSとは、その名が示すとおり、AWSのクラウド上で稼働するVMwareのソフトウェア定義データセンター(SDDC)だ。VMware Cloud on AWSによって顧客は、パブリック/プライベート/ハイブリッドのいずれのクラウド環境でも任意のアプリケーションを実行できるようになる。なおこのサービスは、専用のベアメタルAWSインフラ上で稼働するよう最適化されている。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。