3つ目の「サービス」では、視覚、音声、言語、感情などの認知機能をアプリケーションに追加するAPI群Cognitive Servicesを取り上げた。Nadella氏は、「MicrosoftのCognitive Servicesの画像認識機能と音声認識機能は、認識率で世界記録をもっている」とアピールし、UberでのCognitive Servicesの利用事例を紹介した。Uberでは、運転手の認証にCognitive Servicesの顔認識機能を使っている。

UberではCognitive Servicesの顔認識機能を使ってドライバーを認証している
また、ここでは米国の住宅リフォームチェーンLowe’sが、HoloLens、Cognitive Services、Cortanaなどのテクノロジを導入している事例も紹介された。Lowe’sでは、住宅リフォームを検討している顧客に対して、HoloLensでキッチンを視界に再現し、キッチンの角材のデザインをレコメンドするなどの試みを行っている。HoloLensで、顧客の視点や、各デザインを見たときの感情を認知して、好みや興味を把握することもできるという。

HoloLensとCognitive Servicesで顧客の視点や感情を認知
Azure上のCPUとFPGAで機械翻訳の処理速度を比較
今回のキーノートの目玉となったのは、AIの4つ目の要素に挙げた「インフラ(Azure)」のデモだ。Nadella氏は、「AzureのすべてのコンピュータノードでFPGA(プログラム可能なCPU)をサポートしている」と説明し、Azure上のCPUとFPGAで機械翻訳の速度を比較してみせた。
「AzureのCPUでは、CNTK、Caffe、TensorFlow、Torchなどの機械学習プラットフォームが稼働する。これまでCPUで処理性能が足りない場合はGPUを使うことでスケールさせてきたが、AzureではFPGAをスケールアウト可能な形で使用することができる」(Nadella氏)

AzureではすべてのコンピュータノードでFPGAをサポートしている
Azureが搭載するFPGAは、顧客からニューラルネットワークやディープニューラルネットワーク、コンボリュージョンネットワークなどの要望が多いことを受けて、Microsoftが自社開発したものだという。
デモでは、Microsoft Translatorを使って、ロシア語で書かれた1440ページの『戦争と平和』を英語に翻訳する処理速度を、(1)CPUのみのAzureのサーバ(24コア、1.8Tera ops)、(2)FPGAが有効化されたAzureのサーバ(10コア+4FPGA、7.9Tera ops)で比較した。

CPUのみのAzureのサーバ(左)とFPGAが有効化されたAzureのサーバ(右)で機械翻訳の処理速度を比較
その結果、FPGAは2.6秒で翻訳処理が完了、CPUのみの場合は14秒が経過しても処理が完了しなかった。