富士通は10月10日、産業技術総合研究所からスーパーコンピュータシステム「人工知能処理向け大規模・省電力クラウド基盤(AI Bridging Cloud Infrastructure)」を受注したと発表した。同システムが国内最速の処理性能になるという。
新システムは、1088台の「PRIMERGY CX2570 M4」サーバなどで構成される。サーバ1台あたりインテルのXeon Gold プロセッサを2CPU(計2176CPU)採用し、GPUコンピューティングカードはNVIDIAのTesla V100をサーバ1台あたり4基(計4352基)備える。ローカルストレージではNVMe規格対応のインテル SSD DC P4600 シリーズを採用する。
人工知能(AI)用途に半精度浮動小数点演算の理論ピーク性能としては550ペタフロップス、倍精度浮動小数点演算では37ペタフロップスの性能を実現する。2017年6月時点のスパコンランキングTOP500に当てはめた場合、国内では1位、世界では3位に相当するとしている。
産総研では、新システムを高度なAI処理の基盤に位置付ける。高い計算能力と省電力性を兼ね備えている点が特徴とし、設計のオープン化による民間への技術移転といった産業利用の飛躍的な促進が期待されるという。
新システムは東京大学の柏IIキャンパスに設置され、2018年度の運用開始を予定する。