データセンター関連技術の進歩によって、データセンターの運用においてアナリティクスが中心的な役割を果たすようになる。本記事では、データセンターの運用に関するビッグデータアナリティクスに向けた2つのアプローチを概説する。
提供:iStockphoto/cybrain
データセンター内に設置されている機器から収集したメタデータを利用し、アプリケーションレベルでの統合に活用できれば、データセンター運用における究極の武器を手に入れたことになるはずだ。データセンターの運用チームは、蓄積されている大量のパフォーマンスデータを問題の解決や、データセンターにおける運用効率の向上に役立てたいと考えている。
このコンセプトでは、データセンターからのメタデータがビッグデータプラットフォームに引き渡される。その後、ビッグデータプラットフォームは該当データを分析し、リソースをクラスタリングするソフトウェア向けや、アプリケーション向けの推奨情報を作り出すというわけだ。本記事では、筆者のポッドキャストで取り上げた企業が採用している2つのアプローチを紹介する。
CloudPhysics
CloudPhysicsの最高技術責任者(CTO)Irfan Ahmad氏は先頃、筆者のポッドキャストで、「VMware vSphere」に特化したSaaSベースの同社のソリューションについて語ってくれた。vSphereに搭載されている高度なリソース管理機能すべてを用いても、顧客は自動リソース配置機能の実装に手間取る場合がある。「vSphere Distributed Resource Scheduler(DRS)」を使えば理論的に、アプリケーションのパフォーマンスを保証するうえで必要となる物理リソースを確実にワークロードに割り当られるようになる。
こういった機能は、ベストプラクティスに従って実装できれば期待通りに動作する。しかし、問題を複雑化させることなくこれらの機能を設定するのは簡単ではない。CloudPhysicsは「VMware vCenter」のデータを詳細に分析し、パフォーマンス関連の傾向を把握する。秘匿化されたパフォーマンスデータとCloudPhysicsのベストプラクティスを比較すれば、DRSの設定作業が簡単になるというわけだ。またCloudPhysicsは、世界中の顧客から得られたデータに基づき、顧客の保有する物理インフラのパフォーマンスに対する理解を深めるためのカスタム化されたレポートも提供している。
例を挙げると、特定顧客の「Cisco UCS(Unified Computing System)」ブレードサーバ上で稼働する仮想マシンの入出力と、世界中の顧客から得られたデータを比較することで、統計上の外れ値を洗い出せるようになる。顧客はこうしたデータに基づき、DRSのルールを作成したり、自らのVMwareクラスタに対する設定変更を手動で実施できるようになるわけだ。