インテルは12月9日、同社の人工知能(AI)に関する取り組みを解説する記者説明会を開催した。包括的なAIプラットフォーム「インテルNervanaプラットフォーム」で、AI市場の成長を促進していくとする。
Intelは8月に、ディープラーニングディープラーニング(深層学習)企業Nervana Systemsの買収を発表している。この投資は、AIに対する需要へ包括的に対応するためのものだと説明する。Nervana Systems以外にも、コグニティブ(認知)サービスや機械学習サービスを開発するSaffron、コンピュータビジョンプロセッサやIoTに強いMovidusの買収を発表しているが、これについて、インテル データセンター・グループ・セールス ディレクター 福原由紀氏は、「深層学習分野の強化や、インテルRealSenseテクノロジ、Xeonなどと組み合わせてAI技術を高めていくことが狙いだ」と述べた。
インテル データセンター・グループ・セールス ディレクター 福原由紀氏
同社は、2020年までにデータセンターの利用率のうちAIが占める割合が現在の12倍まで拡大すると予測し、「“AIの波”が訪れる近い将来においてもリーダーであることを目指す」(福原氏)とする。
その一環として、先の買収やAIの流行をいち早くとらえることを目的に、AIや深層学習の著名人を集めた「インテルNervana AI諮問委員会」を設立。委員会での検討結果を将来のロードマップや製品開発につなげていくと表明した。さらに将来的な展望として「高品質なAIを人の生活へ利用したい。人々の『体験』を向上させるため、プロセッサやFPGA(カスタマイズ可能な集積回路)といった『機能』を充実させる」(福原氏)。この他にもオープンソースのライブラリ提供などを通じたAI開発者支援や、学生を対象としたAI研究の支援、オンライン学習などで情報提供を行う「インテルNervana AI Academy」も提供していく。
インテルが構想するAI時代のインテリジェンス
同社は、Nervana Systems、Saffron、Movidusなど先に買収した企業名を“AI活用ソリューションブランド”として位置付けている。「インテルNervanaプラットフォーム」については、同社 アジアパシフィック・ジャパン担当 HPCディレクター 根岸史季氏が解説した。
根岸氏によれば、深層学習にはいくつかの課題があるという。1つ目は「学習処理に必要となる大規模なコンピュータ環境」だ。深層学習では複雑かつ多様な演算を行うため、HPC(高性能計算)級のコンピュータが必要となる。Baidu Researchの調査によれば、1モデルあたりの学習処理は10エクサFLOPSにおよぶ。
2つ目は「演算に要する時間がデータ量に応じて変化する」点だ。深層学習はデータが多ければ多いほど良い結果につながるものの、データ量を増やすには演算リソースのスケーラビリティが求められる。だが、スケーリングはデータのI/Oがボトルネックになるため、単純にプロセッサ性能だけを求めても解決に至らない。この点を改善するのが、インテルNervanaプラットフォームである。
インテル アジアパシフィック・ジャパン担当 HPCディレクター 根岸史季氏
インテルNervanaプラットフォームは、汎用的なインフラストラクチャ(基盤)に「インテルXeonプロセッサ E5」ファミリ、さらに高性能な演算を必要とする場合は「インテルXeon Phiプロセッサ」ファミリーを位置付けている。そして、機械学習や深層学習、ニューラルネットワークといった用途には、推論機能に優れた「Arria 10 FPGA」や深層学習に最適化した「Lake Crest(開発コード名)」と、インテルXeonプロセッサの組み合わせを提供する。
初期開発版を出荷したばかりのXeonプロセッサ E5ファミリは、I/O処理と演算のバランスを保ったCPUだが、8ノードクラスタ上でApache Sparkを用いた交互最小二乗法(ALS)の学習処理時間を比較すると最大18倍まで向上し、「全体的にバランスよくデータ処理と機械学習を処理できる」(根岸)という。
E5ファミリの上位に位置するインテルXeon Phiプロセッサは、既に次期モデル「Knights Mill」に取り組み、深層学習のパフォーマンス比較では4倍の性能を達成している。Knights Millは2017年後半には何らかの形で発表するという。また、Lake Crestは2017年後半に限定的な顧客にリリースする予定だ。
汎用性の高い「インテルXeonプロセッサ」ファミリー
I/O処理など性能を高めた「インテルXeon Phiプロセッサ」ファミリ
型推論アルゴリズムに適したFPGAの「Arria 10 FPGA」
深層学習などに最適化した「Lake Crest」
ソフトウェア面でもAI分野に注力していく。これについて同社は、「オープン」、「高性能」、再利用性を高めた「高い生産性」と3つのキーワードを掲げて取り組むと説明している。
具体的には、提携するGoogleの深層学習フレームワーク「TensorFlow」など各種フレームワークをインテルアーキテクチャに最適化。多用する数式や処理を最適化したライブラリ「インテルMKL-DN(Math Kernel Library for Deep Neural Networks)」をApache 2.0ライセンスでオープンソース化して提供する。
さらに、深層学習におけるメッセージパッシング実装を抽象化し、深層学習を32ノード以上に拡張する「インテルMSLS(Machine Learning Scaling Library)」を近日中に公開するほか、深層学習用SDKやGUIで操作する学習ツールなども提供する予定だ。
各プロセッサの立ち位置とリリースタイミング