IBM、深層学習のトレーニング性能で新記録

Stephanie Condon (ZDNET.com) 翻訳校正: 編集部

2017-08-09 11:31

 IBM Researchは、数百基のGPUを効率よく使用する分散深層学習ソフトウェアを開発し、この分野の新記録を打ち立てた。

 この研究では、深層学習の分野で最も重要な課題の1つに取り組んでいる。ニューラルネットワークとデータセットの規模を大きくすれば学習結果は改善されるが、トレーニングにかかる時間も長くなってしまうという問題だ。深層学習ベースの大規模な人工知能モデルのトレーニングには、数日から数週間かかることも珍しくない。

 使用するGPUの数が増加し、GPU間の通信が必要になると、処理にかかる時間も長くなってしまう。実際、GPUが高速になるにつれて、問題は悪化している。GPUの処理速度が高速であるほど速く学習できるようになるが、従来のソフトウェアでは、GPU間の通信がそれに追いつけなかった。

 今回開発された分散深層学習ソフトウェアは、この問題を解決し、「TensorFlow」「Caffe」「Torch」「Chainer」などのよく利用されているオープンソースのコードを使用して、大規模なニューラルネットワークとデータセットを高い効率で処理することができるようにする。


 IBM Researchは、64台の「IBM Power System」に256基のGPUを搭載したシステムでCaffeを使用し、通信オーバーヘッドを低減することによって95%のスケーリング効率を達成した。従来のスケーリング効率の最高記録は、Facebook AI ResearchがCaffe2を使用したトレーニングで達成した90%弱だった。

 それに加えIBM Researchは、この新しいソフトウェアを使用することで、大規模なデータセット(「ImageNet-22k」の750万枚の画像データ)を使用してトレーニングしたニューラルネットワークで、画像認識率の新記録である33.8%を達成した。トレーニングに要した時間はわずか7時間だった。これまでの最高記録はMicrosoftが達成した29.8%で、このモデルのトレーニングには10日間かかっていたという。


Hillery Hunter氏(写真)が率いるIBMの科学者らが、深層学習におけるブレークスルーを達成した。
提供:IBM

 IBMフェローのHillery Hunter氏は、これだけの成果を達成することができたのは、数十台のサーバに搭載した数百基のGPUを利用する手法を採ったためだと説明している。

 Hunter氏は、「よく使われている深層学習のフレームワークでは、1台のサーバに多数のGPUを搭載することでスケールを拡大しているが、複数のGPUを搭載した多数のサーバを使用するフレームワークはあまり使われていない。具体的には、われわれのチーム(Minsik Cho氏、Uli Finkler氏、David Kung氏、およびその他の協力者)は、数十台のサーバに搭載された数百基のGPUアクセラレータを使用した、非常に大規模で複雑なコンピューティングタスクの並列処理を、自動化および最適化するソフトウェアとアルゴリズムを作成した」と述べている。

 IBMは、この深層学習のトレーニング効率改善によって、より正確な医療画像の分析や、音声認識技術の改善など、さまざまなAIの利用分野で進展が期待されると述べている。IBMは、同社の深層学習ソフトウェア配布パッケージ「PowerAI」のバージョン4で、このソフトウェアのテクニカルプレビューの提供を開始している。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]