Microsoftは米国時間8月22日、リアルタイム人工知能(AI)を実現する「Project BrainWave」をあらためて披露した。BrainWaveはディープラーニングのアクセラレーションプラットフォームだ(「あらためて」としたのは、2016年に少なくとも数回、MicrosoftはBrainWaveに言及したことがあるからだ。今回のBrainWaveの発表は、今週開催された「Hot Chips 2017」で行われた)。
Microsoft Researchのブログによると、BrainWaveは、ハイパフォーマンスの分散型システムアーキテクチャを採用し、FPGA(Field Programmable Gate Array)として知られるカスタマイズ可能なチップ上で稼働するハードウェア・ディープニューラルネットワーク(DNN)エンジン、訓練済みモデルのデプロイ用のコンパイラとランタイムで構成される。
Microsoftが2016年に実施した、構成可能なクラウドの計画に関するプレゼンテーションよると、BrainWaveはFPGAベースのハードウェアマイクロサービス上で稼働するディープラーニングプラットフォームのようだ、と筆者は7月にお伝えした。このプレゼンテーションでは、データセンターやインターネットをまたぐ「サービスとしてのハードウェアアクセラレーション」に言及している。BrainWaveは、必要に応じて複数のFPGAにニューラルネットワークモデルを分散させるようになっている。
また、Microsoft関係者は7月にワシントン州レドモンドで開催された「Microsoft Research Faculty Summit」でBrainWaveについて説明する予定だったが、BrainWaveに関する言及はなかった。
Microsoft関係者がHot Chips 2017で述べたところによると、Intelの新しい「Stratix 10」チップを使って、BrainWaveはバッチなしで39.5テラフロップのパフォーマンスを維持したという。Microsoftが伝えたい重要なポイントは、BrainWaveによって、「Microsoft Azure」ユーザーはこうした水準のパフォーマンスで複雑なディープラーニングモデルを実行できるようになる、ということだ。
Microsoftはコンピュータビジョンや自然言語処理、音声など、クラウドにデプロイ可能なAIベースのサービスの限界を拡大する手段として、ハードウェアマイクロサービス上で稼働するBrainWaveに期待している。
Microsoft関係者によると、同社は2018年、Azureを通してFPGAを外部開発者に提供する予定だという。
クラウドデータセンターでのFPGAの利用に注目している企業は、Microsoftだけではない。AmazonやGoogleもAIタスクにカスタムチップを使用している。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。