「AIはエンジン、データは燃料」--ネットアップが語るAI時代のデータ戦略

藤本和彦 (編集部)

2025-06-03 07:00

 NetAppのAIソリューション 主管責任者であるRussel Fishman氏が、AI開発におけるデータの重要性や、同社の戦略について語った。

 Fishman氏によれば、NetAppは7年以上にわたりAIに取り組み、既に700社以上の顧客がAIを本番稼働させている。同氏のチームは、同社のAI戦略立案に加え、パートナーエコシステムと連携し、顧客のユースケースを製品に反映させることに注力している。

 Fishman氏は、ほとんどの顧客や組織がAIにおける根本的な問題がデータにあることに気付いていないのが現状だと指摘する。「AIは大きなエンジンのようなものであり、それを動かすためには燃料が必要となる。その燃料こそがデータである。NetAppは、データをAIに対応できる状態にすることが、極めて重要な責任だと考えている」

 その戦略の中核となるのが、2024年9月に米国ネバダ州ラスベガスで開催の年次イベント「NetApp INSIGHT 2024」で発表された「インテリジェントデータインフラストラクチャー(IDI)」になる。

 Fishman氏はその特徴について、「データは単に利用できるだけでなく、そこから意味のある情報を取り出し、必要な時に必要な場所で使えるようにすることが重要である。例えば、クラウド環境や、クラウドに近い場所(ニアクラウド)でも、いつでもデータが使えるように整備し、さらに、AI開発のライフサイクル全体を通じて、データの出どころを保証する信頼の連鎖を確立することが重要である」と語る。

 データサイエンティストは非常に多くの時間をデータの準備に費やしている。AIのためのデータを準備する際は、まずデータの収集から着手する。データは一つの場所に集約されておらず、フォーマットも統一されていないのが一般的だ。構造化データのほかにも、テキスト、動画、画像、音声など多岐にわたる。NetAppでは、これらの極めて多様なデータセットの統合を支援する。「NetAppのテクノロジーがこのデータ統合プロセスを簡素化する」(Fishman氏)

 データの収集と統合だけでなく、データを常に最新の状態に保つことも重要になる。さらに、データそのものだけでなくメタデータも重要になる。ここでは、ハイブリッドマルチクラウド環境全体でデータを安全に検索、管理、分析できるようにし、AIの特徴抽出やデータ分類を可能にする「グローバルメタデータネームスペース」を既に発表している。

 「データ品質、データリネージ(データの系譜)、データ分類、データセキュリティといったさまざまな概念に基づき、われわれはデータをよりリッチなものにできるという意味で、ユニークな立ち位置にあると考えている。このようなメタデータを追加することで、データはさらに有用かつ正確なものとなるだろう」(Fishman氏)

 また、同氏はデータの整理だけでなく、データサイエンティストが日々の業務でデータをどのように活用するかも重要だと指摘する。「データサイエンティストはデータ管理には関心があるものの、ストレージそのものには関心がない」

 Fishman氏によると、NetAppが取り組んできた課題の一つは、データサイエンティストに対し、基盤となるストレージの価値をいかに提供するかという点だったという。例えば、同社は、MLOpsを推進するため、Domino Data Labsと提携している。DominoのMLOpsプラットフォームをストレージOS「NetApp ONTAP」に直接統合し、AIワークロードのデータ管理を容易にする。この仕組みにより、データサイエンティストはスナップショットやクローンなどのストレージ機能を直接利用できる。「ストレージ担当者と話すことなく、データサイエンティスト自身がデータを収集、準備、反復できる」

 Domino Data Labsとの統合と同様に、「Amazon Web Services(AWS)」「Microsoft Azure」「Google Cloud」のMLOpsツールとも統合されている。「われわれはデータサイエンティストの生産性を向上させ、彼らを満足させることに注力している」といい、「データサイエンティストはインフラに関する作業をやりたがらないため、NetAppがその負担を軽減し、彼らを幸せにしたい」とFishman氏は語った。

 INSIGHT 2024では、大規模言語モデル(LLM)のトレーニングのような、非常に大規模で計算負荷の高いAIワークロード向けに、新しいストレージバックエンドアーキテクチャーも発表された。これは「ディスアグリゲーテッドストレージアーキテクチャー」と呼ばれ、ネットワークとフラッシュドライブの速度を最大限に活用し、インフラコストを削減する。これにより、ラックスペースと電力を節約しながら、ストレージパフォーマンスを大幅に向上させることが可能になるとしている。

 「今後はAIが単に機能するだけでは不十分であり、効率的かつ費用対効果(ROI)が高くなくてはならない」(Fishman氏)

 直近では、NVIDIAとの提携のもと、エージェント型AIの企業導入を加速させるために、「NVIDIA AI Data Platform」のリファレンスデザインを「NetApp AIPod」ソリューションに組み込むことを発表した。

 NetApp AIPodは、ONTAPのデータ管理機能を土台にしており、NVIDIA AI Data Platformを活用することで、検索拡張生成(RAG)や推論処理に対応した、安全で適切に管理されたスケーラブルなAIデータパイプラインの構築を可能とする。

 Fishman氏によると、NVIDIAはストレージパートナーとの間で標準化を進めることで、企業でのAI活用をよりスムーズに進められるようにしているという。「こうした標準化の動きにNetAppが関われていることをうれしく思っている」

 加えて、NetAppの差別化として「ハイブリッドクラウドの活用」「豊富なデータ資産」「優れたパートナー企業との連携」を挙げた。「業界全体で標準化が進んでも、NetAppには他社にはない強みが幾つもある」

NetApp AIソリューション 主管責任者のRussel Fishman氏
NetApp AIソリューション 主管責任者のRussel Fishman氏

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]