Microsoftは、ディープニューラルネットワーク(DNN)といったデータ集約型のタスクを扱う社外の「Microsoft Azure」開発者もFPGA (Field Programmable Gate Array) の処理能力を享受できるようにする取り組みを進めている。
同社はここ数年、FPGAの採用によって「Bing」やAzureのパフォーマンスや効率を向上させてきている。
しかし2018年に同社は、大量の計算資源を必要とするDNNなどの人工知能(AI)関連といったタスクを実行させたいと考えている開発者に向けて、こうしたFPGAの処理能力を開放する計画だ。
5月に開催されたMicrosoftの開発者向け年次カンファレンス「Build 2017」で、Azure担当最高技術責任者(CTO)であるMark Russinovich氏は、Azureを介して「ハードウェアマイクロサービス」を提供するという同社の計画の概要について説明した。Russinovich氏が参加者らに語ったところによると、セキュリティ面やその他の面で残っているいくつかの問題を解決すれば、「われわれの考える、すべてが設定可能なクラウドというものが実現する」という。
Russinovich氏は「これがAIクラウドの核心だ」と述べるとともに、「FPGAの力を用いたAIの民主化に向けた大きな一歩だ」と述べた(Russinovich氏の考えはこのThe New Stackの記事からも読み取れる)。
FPGAとは、製造後に構成をカスタマイズできるチップのことだ。Microsoftの研究者らはFPGA分野に10年以上前から取り組んできている。
そして最近、Microsoftは自社データセンターのAzureサーバすべてにFPGAを搭載するとともに、「Project Catapult」の一環としてBingのインデックスサーバの一部にもFPGAを実装した。また同社は、「Azure Accelerated Networking」サービスでもFPGAを活用している。なお同サービスは、「Windows」向けに一般提供が開始されており、Linux向けについてはプレビュー段階にある。
Russinovich氏は5月の時点では、ハードウェアマイクロサービスと、FPGAを用いたクラウド処理能力を社外の顧客に提供することに関しては、確固たるスケジュールを持ち合わせていないと述べていた。しかし同社が7月に述べたところによると、2018年のどこかの時点での実現が目標になっているという。