そのライセンスコストにひかれ、ビッグデータ分析をHadoop分析プラットフォーム上で実践する企業は多い。しかし、サポートが必要になれば、サブスクリプションコストが追加で発生することについては今ひとつ考慮されていないかに見える。そして、データボリュームが増大し続ける今日の状況において、クラスター構成のノードでデータを効率的に保管することは、データ管理の上で極めて重要であることを忘れてはならない。
本テクニカルホワイトペーパーでは、Hewlett Packard Enterpriseが実施したベンチマークテストを通じて、Apache Hadoopビッグデータ分析プラットフォームの一般的な分析ソリューションには、複数の同時実行ユーザーによるデータ分析や、社内SLAに対応できる最適な速度での実行など、ビッグデータ分析プラットフォームとして必須となる領域において一定の制限があることを明らかにしている。端的に言えば、分散処理を肝とするHadoopベースのソリューションは、データを低コストで保管できるように見えるものの、実際のところビッグデータ分析においては、VerticaのようなMPP(超並列処理)分析データベースに大きく遅れを取っていたのだ…!
では、ビッグデータ分析プラットフォームとしてのHadoopベースのソリューションには具体的にどのような制約があるのか、その詳細については本ホワイトペーパーをダウンロードして、ぜひ確認いただきたい。
ホワイトペーパー