AIにとってブレークスルーとなった技術の1つが深層学習だ。この技術は機械学習の一種で、データを分析することで、画像内のオブジェクトを識別したり、音声を認識したり、その他の予測モデルを生み出したりすることができる。深層学習には通常のCPUも使えるが、重要なプロジェクトのデータサイエンスやAIのエンジニアチームでは、大規模な並列処理が必要なワークロードを扱えるAI用のプロセッサ(例えばGPU)を使用して、大規模なデータセットを使ったトレーニングを短時間で行えるようにし、常にモデルの再トレーニングを続ける必要がある。
AIインフラが必要な理由
これが、Amazon、Facebook、Google、Microsoftを含むインターネット業界のあらゆる大企業が、AIのインフラに大規模な投資を行っている理由だ。ForresterはAIインフラを次のように定義している。
深層学習モデルのトレーニングや推論の実行などの、AI関連のワークロードのパフォーマンスを最適化できるように設計された集積回路、コンピュータシステム、クラウドサービス。
AI用プロセッサの開発競争はGPUから始まったが、今では多様なプロセッサが登場しつつある
AIの深層学習に使われるプロセッサに関しては、GPUがニュースになることが多い。これは入手しやすく、モデルのトレーニングに必要な時間を劇的に短縮できるためだ。CPUを使ったシステムでは何日もかかるモデルのトレーニングが、GPUを使ったシステムでは数時間で済んでしまう。しかし、AIや深層学習の流行はまだ始まったばかりだ。最近では、Intelやパブリッククラウド企業、スタートアップなどのベンダーも、さまざまな新しい選択肢を用意しつつある。
調達は短期的に、戦略は長期的に
あまりにも進歩が速いため、2年に1度はノートPCを買い換えていた時のことを思い出してほしい。それと同じことが、AI関連のプロセッサやシステム、クラウドでも起きている。AIインフラの進歩のペースは、AI市場の急速な成長、競争力の高いプロセッサメーカーやクラウドプロバイダー、深層学習ソフトウェアのイノベーションの後押しを受けたものだ。しかし企業には、状況が落ち着くまで待つ余裕はない。今はAIの取り組みを前に進める必要があるし、さらに重要なのは、希少なAIエンジニアやデータサイエンティストのチームの生産性をできる限り上げるためには、AIモデルのトレーニングを可能な限り短時間で行えるインフラを与える必要があるということだ。