Microsoftは、Field Programmable Gate Array(FPGA)技術を利用して「Azure」で高速の人工知能(AI)処理を実現する「Project Brainwave」に取り組んでいるが、いくつかの方法でプレビューの利用が可能になった。
Microsoftの幹部は、開発者向け年次カンファレンス「Build 2018」の初日となる米国時間5月7日に、クラウドでProject Brainwaveを活用した「Azure Machine Learning Hardware Accelerated Models」のプレビューを提供すると発表した。これはAIのワークロード処理向けに、MicrosoftのFPGAを社外の顧客に提供する第1歩となる。同社幹部はこうした取り組みを行うことを、2017年に明らかにしていた。
またMicrosoft幹部は7日、Project Brainwaveのプレビューを「エッジで」限定的に提供すると述べた。この場合のエッジデバイスとは、「Azure IoT Edge」デバイスとして機能できるオンプレミスのサーバとなる。この限定プレビューに参加する最初のパートナーは、DellとHewlett Packard Enterpriseである。
AzureユーザーはBrainwaveによって、複雑な深層学習モデルを高性能に実行できるようになる。同社は、コンピュータビジョン、自然言語処理や音声など、クラウドに導入可能なAIベースのサービスを徐々に拡充したい考えだ。
同社はここ数年、IntelのFPGAを利用して「Bing」やAzureの性能と効率を向上させている。FPGAは製造後に、構成をカスタマイズできるチップである。
Microsoftの研究者らは、10年以上にわたってFPGA分野に取り組んでいる。自社データセンターのすべてのAzureサーバにFPGAを搭載しているほか、同社の「Project Catapult」の一環として、Bingのインデックスサーバが利用するマシンの一部でもFPGAを実装した。さらに「Windows」と「Linux」向けに提供している「Azure Accelerated Networking」サービスでも、FPGAを活用している。
クラウドデータセンターにおけるFPGA利用を検討している企業はMicrosoftだけではない。AmazonとGoogleの両社はAIタスクの処理にカスタムチップを利用している。
Amazonはすでに、XilinxのFPGAプログラミング用に「FPGA EC2 F1」インスタンスを提供しており、FPGAのハードウェア開発キットを用意している。Googleは、機械学習ソフトウェアライブラリ「TensorFlow」で深層学習モデルのトレーニングを行っており、基盤となる「Tensor Processing Unit」チップも開発した。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。