ビッグデータ活用の本質は、これまで注目してこなかったデータをトライ&エラーを繰り返しつつ集計・分析してみることだ。しかしシステム構築の観点から見ると、その規模が決定できない難しさがある。
例えばビッグデータ分析のために高価なDWHアプライアンス製品を採用したとする。しかし、それを将来使い切ることができるかどうか、導入時には誰にもわからないケースが多い。
加えて、サーバの保守切れやリース満了間近になってからのシステム見直しも厄介だ。コストパフォーマンスの良さと、変化に強いシステムを構築するためにクラウドを選択するものの、サービスレベルやセキュリティの面において要件に必ずしも応えられるとは限らない。
段階的なシステムの導入や見直しはビッグデータを活用するためのシステム構築において大きな課題となっている。
本ホワイトペーパーでは様々なシーンでの段階的なシステム構築の勘所を解説する。
これらはITの災害対策にも有効な視点であり、利益を生み出すヒントでもある。
ホワイトペーパー