DevOpsに機械学習--「MLOps」実現で欠かせないストレージの効率化 - (page 2)

阿久津良和

2021-07-15 06:45

 グローバルでは多くのメーカーと協業するネットアップだが、今回の勉強会では国内企業に限定して取り組みを紹介した。

 GPUメーカーのエヌビディア(以下、NVIDIA)とは、AIスーパーコンピューターをサブスクリプションで利用できる「NVIDIA DGX SuperPOD」の開発に協力。「ストレージの提供にとどまらず、KubernetesでBeeGFS(HPC用パラレルファイルシステム)を使うためのドライバー開発など」(大野氏)も担った。

 また、富士通とNVIDIAとは2018年から結んできた協業を強化して、「FUJITSU AI Zinraiディープラーニングシステム」にネットアップのAI/機械学習ソリューション「NetApp AI Control Plane」、NVIDIAの「NVIDIA A100 TensorコアGPU」などを組み合わせたMLOpsソリューションを提供中だ。

ネットアップと協業する各企業 ネットアップと協業する各企業
※クリックすると拡大画像が見られます

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]