Amazon Web Services(AWS)は米国時間9月30日、クラウドコンピューティングサービス「Amazon Elastic Compute Cloud」(Amazon EC2)に、GPUをベースにした「P2インスタンス」を追加したと発表した。このインスタンスは、人工知能(AI)や耐震解析、分子モデリング、ゲノム科学といった、大規模な並列処理能力を必要とする応用分野に向けたものだ。
同社は、P2インスタンスを「大規模な並列浮動小数点演算性能」を必要とするアプリケーションに向けたものだと表現している。
AWSのチーフエバンジェリストであるJeff Barr氏は、「このインスタンスは、規模の極めて大きい機械学習や深層学習、数値流体力学(CFD)、耐震解析、分子モデリング、ゲノム科学、金融工学といった分野での使用を想定して設計されている」と述べている。
GPUはもともと、ゲームの世界で力を発揮するものとされてきたが、複数のGPUによる並列処理を実現できるだけのスケーラビリティを備えていることから、最近では大規模な計算処理を扱うという新たな目的での使用が増えつつある。これは、スケーラビリティに対する今までのアプローチとは対照的と言える。複雑な問題に取り組もうとした場合、これまでは単一のマシン上により高速なCPUを搭載するのが主流だったが、最近ではCPU処理能力の高速化が頭打ちになってきているため、このようなアプローチは難しくなってきている。
とは言うものの、あらゆる種類のワークロードが複数GPUでの処理に向いているというわけではない。AWSによると、顧客はGPUをベースにしたクラウドサービスを採用することで、事前の資本投資なしに、NVIDIAの「Compute Unified Device Architecture」(CUDA)ベースの並列コンピューティングプラットフォームや、OpenCLフレームワークを用いて、計算負荷の高いアプリケーションを構築できるようになるという。
P2インスタンスの処理性能には目を見張るものがある。16個のGPUで構成されている最上位のP2インスタンスは、192Gバイトのビデオメモリと4万個の並列処理コアを搭載し、70テラFLOPSの単精度浮動小数点演算と、23テラFLOPSを超える倍精度浮動小数点演算を実現するとともに、GPU間のピアツーピア通信の帯域幅を向上させ、レイテンシを引き下げる「GPUDirect」技術を採用している。また、P2インスタンスは最大732Gバイトのホストメモリと、カスタマイズされた「Intel Xeon E5-2686 v4」(Broadwell)プロセッサを用いて最大64個の仮想CPU(vCPU)を実現できる。
Amazon EC2のバイスプレジデントMatt Garman氏によると、高性能コンピューティング(HPC)や、ビッグデータの処理といったワークロードに対する、より高いGPU能力を顧客が必要としているという。新たなP2インスタンスの能力は、2年前に提供が開始された同社最大の「G2インスタンス」に比べると、単精度浮動小数点演算で7倍、倍精度浮動小数点演算で60倍以上だという。
P2インスタンスには、16個のGPUを搭載した「p2.16xlarge」と、8個のGPUを搭載した「p2.8xlarge」、1個のGPUを搭載した「p2.xlarge」という3種類のインスタンスサイズが用意されている。また利用可能なリージョンは、米国東部(北バージニア)と米国西部(オレゴン)、欧州(アイルランド)となっている。
提供:Getty Images/iStockphoto
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。