編集部からのお知らせ
ZDNet Japanが新しくなりました!
New! 懸念高まる産業機器のセキュリティ
海外コメンタリー

企業にAIインフラの十分な整備が必要不可欠な理由

Mike Gualtieri Chris Voce (Forrester Research) 翻訳校正: 石橋啓一郎

2018-07-05 06:30

 AIにとってブレークスルーとなった技術の1つが深層学習だ。この技術は機械学習の一種で、データを分析することで、画像内のオブジェクトを識別したり、音声を認識したり、その他の予測モデルを生み出したりすることができる。深層学習には通常のCPUも使えるが、重要なプロジェクトのデータサイエンスやAIのエンジニアチームでは、大規模な並列処理が必要なワークロードを扱えるAI用のプロセッサ(例えばGPU)を使用して、大規模なデータセットを使ったトレーニングを短時間で行えるようにし、常にモデルの再トレーニングを続ける必要がある。

AIインフラが必要な理由

 これが、Amazon、Facebook、Google、Microsoftを含むインターネット業界のあらゆる大企業が、AIのインフラに大規模な投資を行っている理由だ。ForresterはAIインフラを次のように定義している。

 深層学習モデルのトレーニングや推論の実行などの、AI関連のワークロードのパフォーマンスを最適化できるように設計された集積回路、コンピュータシステム、クラウドサービス。

AI用プロセッサの開発競争はGPUから始まったが、今では多様なプロセッサが登場しつつある

 AIの深層学習に使われるプロセッサに関しては、GPUがニュースになることが多い。これは入手しやすく、モデルのトレーニングに必要な時間を劇的に短縮できるためだ。CPUを使ったシステムでは何日もかかるモデルのトレーニングが、GPUを使ったシステムでは数時間で済んでしまう。しかし、AIや深層学習の流行はまだ始まったばかりだ。最近では、Intelやパブリッククラウド企業、スタートアップなどのベンダーも、さまざまな新しい選択肢を用意しつつある。

調達は短期的に、戦略は長期的に

 あまりにも進歩が速いため、2年に1度はノートPCを買い換えていた時のことを思い出してほしい。それと同じことが、AI関連のプロセッサやシステム、クラウドでも起きている。AIインフラの進歩のペースは、AI市場の急速な成長、競争力の高いプロセッサメーカーやクラウドプロバイダー、深層学習ソフトウェアのイノベーションの後押しを受けたものだ。しかし企業には、状況が落ち着くまで待つ余裕はない。今はAIの取り組みを前に進める必要があるし、さらに重要なのは、希少なAIエンジニアやデータサイエンティストのチームの生産性をできる限り上げるためには、AIモデルのトレーニングを可能な限り短時間で行えるインフラを与える必要があるということだ。

ZDNet Japan 記事を毎朝メールでまとめ読み(登録無料)

Special PR

特集

CIO

セキュリティ

スペシャル

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNet Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]