日本マイクロソフトは11月25日、同社 最高技術責任者(CTO)榊原彰氏によるMicrosoftの人工知能(AI)関連の取り組みに関するメディアブリーフィングを開催。AIを実現するために同社が開発している深層学習フレームワーク、および深層学習のプラットフォームとしてMicrosoft Azureから提供するFPGAなどについて解説した。
日本マイクロソフト 最高技術責任者(CTO)榊原彰氏
Microsoftでは、Windows 10に実装されている音声アシスタント「Cortana」のほか、Office 365やDynamics 365などのアプリケーションにAIのテクノロジを取り入れている。また、画像認識・音声認識・テキスト認識などのトレーニング済みのAIモデルをアプリケーションに実装するためのAPI群「Cognitive Services」、AIを実現するための機械学習アルゴリズムをサービスとして使える「Azure Machine Learning」などを提供している。
これらのAIテクノロジの基盤となっているのが、深層学習(ディープラーニング)フレームワーク「Microsoft Cognitive Toolkit(旧CNTK)」だ。CortanaやOfficeのAI機能、Cognitive ServicesのAPIなどは、このMicrosoft Cognitive Toolkitを使って実装されている。もともとMicrosoftが社内で利用するために開発したフレームワークだが、1月にオープンソースとして公開された。
Microsoft Cognitive Toolkitは、2015年に「ILSVRC(ImageNet Large Scale Visual Recognition Challenge、以下ImageNet)」という画像認識のコンペティションで、画像をコンピュータに分類させてその精度を競う項目において1位になった。このときは、画像の誤認識率3.5%という、人間の誤認識率5%よりも高精度の値をマークしている。
ImageNetの歴史をさかのぼると、2012年にトロント大学のGeoffrey Hinton教授が「畳み込みニューラルネットワーク(CNN)」と呼ばれる深層学習モデルを持ち込んで以来、画像認識の精度が飛躍的に向上した。2012年のImageNetは、8階層のCNNモデルを使ったHinton教授のチームが優勝している。その発展形として、Googleは2014年に19階層のCNNモデルを構築して優勝。翌2015年にはMicrosoftが152階層のCNNモデルを採用したMicrosoft Cognitive Toolkitで優勝した。
Googleは2014年に19階層の畳み込みニューラルネットワーク(CNN)モデルでImageNetに優勝、Microsoftは2015年に152階層のCNNモデルで優勝した
このように、Microsoft Cognitive ToolkitはCNNモデルを採用した深層学習フレームワークだが、「畳み込みの計算は、階層が深くなるほど単位時間あたりのコンピュータパフォーマンスを上げないと処理できない」と榊原氏は説明する。「例えば、CNNモデルによる画像認識では、あるピクセルを解析し、そのピクセルが画像全体のどの位置にあり、どういうオブジェクトの一部かといった計算をし、その結果を学習してまた計算するということを152階層分繰り返す。GPUなどのコンピュータパワーを大量に使う処理」(榊原氏)
Microsoft Cognitive Toolkitによる画像の分類結果