富士通研究所は、計算の厳密性を自動調整し、人工知能(AI)処理を最大10倍高速化するコンピューティング技術「Content-Aware Computing」を開発した。これにより、学習の度合いに合わせ最適な演算精度を自動制御し高速化するほか、クラウドなど並列環境における一部ノードの計算の遅れを回避し、実行時間にばらつきのある並列環境でも演算速度を安定化させることができる。
学習の進捗に合わせた低ビット化による高速化
同技術は、データに合わせてビット数を自動的に削減する技術と、ばらつきのある並列環境で高速実行を可能にする同期緩和技術で構成されている。
ビット数を自動的に削減する技術は、ニューラルネットワークで学習が進むと各層の数値範囲が似かよった数値に収束していく性質を利用し、計算中のニューラルネットワークにおける各層の数値範囲の分布にもとづいて、分布が広い層では高ビット、分布が収束してきた層で低ビットといったように学習の状況に応じて演算精度の適用度合いを判断する。これにより演算結果の劣化を抑えつつ、ディープラーニングに適用した場合、従来の3倍まで高速化できる。
同期緩和技術は、並列処理の各演算において、処理を打ち切った場合の処理時間の削減量と、演算結果への影響度を予測し、演算結果を劣化させない範囲で、処理時間を最大限に削減できるように、各演算の打ち切り時間を制御する。クラウド環境など多数のノードで演算する場合やCPUを多数のアプリケーションで共用する環境の場合、通信の競合や割り込み処理などにより、一部のノードでの応答が大幅に遅れる場合があるが、同技術によって並列計算の高速実行が可能になり、ディープラーニングの処理においては最大で3.7倍の高速化が確認された。
GPUや専用プロセッサーにより計算性能は向上しているが、AIの計算需要には追いついておらず、さらなる高速化手法として、計算の厳密性を捨てて高速化する技術が注目されている。今回開発した技術を活用することで、AI処理を最大で10倍まで高速化でき、AIフレームワークやライブラリに組み込むことで、低ビット演算機能が組み込まれたGPUやCPU、それらを用いたクラウドやデータセンターでのAI処理を自動的に高速化することが可能となった。