この環境を支えるのは「データベースをはじめとしたハードウェアの高速化とインメモリ技術だ」と三木氏は指摘する。以前ならハードウェア性能の限界により、データウェアハウスのサブ単位としてデータマートを作成する必要があったようなケースでも、現在はその必要がなくなってきているという。
日立はビッグデータが持つこうした潜在力を引き出すため、データを集め(データ可視化)、ためて(データ仮想化)、すばやく(データ並列化)、分析結果を導き出す(データ抽象化)取り組みを進めているという。
日立の先端情報システム研究開発本部本部長で工学博士の三木良雄氏
具体的には例えば「可視化」ではストリームデータ処理製品、「仮想化」では分散データ管理技術を実装したインメモリデータグリッド、「並列化」では並列データ処理技術を使ったデータベースや超並列データ検索技術による大量データ分析基盤、データ分割処理制御技術を使った分散グリッド実行基盤など、「抽象化」では時系列圧縮格納技術を用いた時系列ストアや障害予知検知技術によるサービスレベル管理、モデル化機械学習融合技術によるビッグデータ関連サービスなどを想定しており、関連する製品を3月から提供する予定だ。
阿部氏は「ビッグデータ分析の需要は基幹業務の領域にも広がる」とする。定型業務としてのデータ分析、潜在情報の発掘、現在からの未来予測の3つに位置づけが分かれる。その中で、例えば売れる商品の予測、隠れていた良質な販売チャネルの発見など、創造性の強い使い方に期待する声が多い。そこが、在庫削減や生産リードタイム短縮など目に見える業務の効率化を中心とした従来型のIT活用との最も大きな違いであり、面白さであるようだ。