ネットアップは9月4日、同社の最新の取り組みに関するプレス向け説明会を開催した。同社が2014年から取り組む「Data Fabric」のコンセプトをアップデートしたほか、本格的なクラウド時代への対応として、DevOps支援やKubernetesサービスなど、従来のストレージベンダーという同社のイメージとは直結しないような新たな取り組みについて紹介した。
ネットアップ 常務執行役員CTOの近藤正孝氏
常務執行役員CTO(最高技術責任者)の近藤正孝氏は、従来のData Fabricを“1.0”と位置付けた上で、当時想定していた環境が「企業のIT環境」「データセンター」「パブリッククラウド」を統合的に扱えるようにする、いわゆるハイブリッド環境だったのに対し、アップデートした「Data Fabric 2.0」では、Amazon Web Services(AWS)、Microsoft Azure、Google Cloud Platform(GCP)など主要なパブリッククラウド環境を併用する「ハイブリッドマルチクラウド環境」を前提としているとした。そこでの目標として「ハイブリッドマルチクラウド環境において、どこへでもデータ環境のデプロイ、運用を統一的にできるようにしたい」「アプリケーションのリリースサイクルを迅速化させることに貢献したい」(近藤氏)の2点を挙げた。
クラウド環境は、設置場所の違いと「所有か利用か」という経済モデルの違いを注目しがちだが、実はITインフラとして見た場合にはアーキテクチャーの違いが大きく、オンプレミス環境と全く同じものと考えてしまうとうまく利用できない。
NetAppのデータファブリックの進化(出典:ネットアップ。以下同)
同社はこの点に注目し、“データ”という観点でオンプレミスとクラウドの違いをできる限り隠して統一的に扱えるようにするというのが、Data Fabric 1.0での課題だったといえるだろう。そして、主要なパブリッククラウド間のアーキテクチャーの差異の解消にまでカバレッジが広がったのがData Fabric 2.0だと考えられる。ここまでは、従来のコンセプトの正常進化と見て良さそうだが、発想の転換を伴う取り組みと考えられるのが「DevOpsへの言及」だ。
近藤氏は、クラウドを「ITの新しいデザインパターン」と位置付け、単にコスト効率の高いITインフラということにとどまらず、クラウドが実現する“迅速性”がさまざまな面にインパクトをもたらし、現在のデジタルトランスフォーメーション(DX)という流れにつながっているとした。
その上で、そうしたトレンドが端的に表われているアプリケーション開発の手法の変化にも言及。Googleが自社での経験を踏まえて提唱した「SRE(Site Reliability Engineering)」を踏まえ、従来のインフラ運用チームとアプリ開発チームという技術レイヤーごとに水平分割された組織構造では、インフラ運用チームは「安定稼働の維持」、アプリ開発チームは「新機能の迅速な実装/投入」という異なる目標を持っていたことで、一体的な動きができなかったことを指摘した。
従来のIT組織体制とDX時代の新しい体制の違い。開発と運用を一体化するためには、両者が共通の目標を持つことが重要だという
SREというコンセプトでは、運用/実行を担当するSREチームとアプリ開発チームが一体となり、共通指標である「エラーバジェット(Error Budget)」に基づいて共同歩調を取れるようにすることで、アプリケーション開発の迅速性がさらに高まるとした。そしてSREが、従来のITインフラ運用チームとは異なり、開発者としてのスキルも備えたソフトウェアエンジニアであることに注目、「従来のストレージ/ITインフラが想定していたユーザーとは異なる新しい層のユーザーが増えることになる。こうしたユーザーにとって有用な機能を提供する必要がある」(近藤氏)とした。この認識が、従来のストレージの枠を越えた新たな機能/サービスの実現に向かう同社の根本的な動機となっているようだ。
具体的な取り組みについてソリューション アーキテクト部長の神原豊彦氏は、「NetApp HCI(Hybrid Cloud Infrastructure)と連携したクラウドデータサービス製品」「大手クラウドベンダーと緊密に連携/内部で稼働するCloud Volumesポートフォリオの提供」「ハイブリッドクラウド環境を一元的に監視・管理」の3つのテーマで説明した。
NetApp HCIとクラウドデータサービスの概要。NetApp HCIは、登場当初は通常通りに“Hyper-Converged Infrastructure”の意味だとされていたが、2018年から“Hybrid Cloud Infrastructure”の意味に改められた
まず同社のHCI製品は、2018年に位置付けが変更され、一般的な「Hyper-Converged Infrastructure」ではなく、「Hybrid Cloud Infrastructure」にメッセージが改められている。当時はその意味合いが難解だったが、同社はパブリッククラウド上で展開する各種のデータサービスをオンプレミス環境でも同様に利用するためのハードウェアプラットフォームと位置付けた。
榊原氏は、「あたかもパブリッククラウドの“ローカルリージョン”であるかのように使えるもの」と説明、その立ち位置を明確した。同社がクラウドサービスとして提供するCloud Volumesや「NetApp Kubernetes Service(NKS)」もNetApp HCIをサポートし、オンプレミス環境とパブリッククラウド環境をシームレスに統合するために活用できるようになった(現在はプレビューの段階)。
NetApp Kubernetes Service(NKS)の概要。現在では各社がKubernetesのマネージドサービスを展開しているが、実際にはサービスのカバー範囲が異なっており、マネージドサービスとして提供される範囲とユーザー管理に任される部分がサービスごとに異なっているという。これが運用管理の煩雑さにつながることを避けるため、NKSではこうした差異を吸収し、ユーザーからはプラットフォームをまたいで統一的な運用管理ができるようするという点が特徴となる
なお、Cloud Volumes Serviceは、同社が運用する同社製ストレージをパブリッククラウド環境内に設置し、ユーザーにストレージサービスとして提供する。現在はAWSおよびAzureで提供を開始しており、GCPでもプレビューを提供中だ。AWSではマーケットプレイス経由の提供になるが、AzureおよびGCPではそれぞれのパブリッククラウド事業者自身が提供するサービスとの位置付けで、緊密なパートナーシップに基づいて実現されたサービスになる。NetAppが公表したAWSでの活用事例は、データの読み出し速度はAWSが提供するストレージサービスよりも高速でコストが安価という結果になっている。またNKSは、クラウド各社が提供するKubernetesサービスの機能の違いを吸収し、ユーザーからは統一的に扱えるようにするという。
同社のクラウドサービスは、前述のData Fabric 2.0のコンセプトに基づき、パブリッククラウド各社/データセンター/社内ITインフラといった環境の違いを全て隠し、共通のデータ基盤に対して統一的にアクセスできることを意図したものになる。パブリッククラウド各社は、自社の環境が他のパブリッククラウドよりも魅力的になるよう独自機能の開発や提供に取り組んでおり、それが結果として“ロックイン”につがっている側面もあるが、この状況をユーザー視点で抽象化/吸収して、統合的なアクセスを実現することにより、同社は、クラウド時代におけるストレージベンダーの存在感を確立しようとしているようだ。
NetAppのクラウドストーレジサービス“Cloud Volumes Service”の現状。まだプレビュー提供段階のところも混じっているが、最新のアップデートが10月28~30日にLas Vegasで開催される同社のプライベートイベント“NetApp Insight 2019”で公表される予定だという。さらに2019年は、同イベントが年末年始にかけて東京と大阪でも開催予定となっている
同時に、パブリッククラウド事業者に対しては必要不可欠なパートナーとして協力関係を確立し、一方でパブリッククラウド事業者が直接提供するよりも高性能なストレージサービスを安価に提供したりもしている。クラウド時代になって不可避的に進行しつつあるIT業界の構造変化にむけて、NetAppも迅速な対応を開始したものと考えて良さそうだ。
AWS上でNetApp Cloud Volumes Serviceを活用したユーザー事例でのベンチマーク結果。2TBのデータのシーケンシャルリードに要した時間の比較