処理対象となるデータは、多種多様なシステムや端末、センサ類などからリアルタイムで大量に生み出され続ける。これらのデータを最大限に活用するためには、それらを効率的に保存、管理して、処理するための仕組みが必要になる。
ビッグデータの時代においては、旧来のエンタープライズサーチのように、データを「検索されるときのために効率的に保存しておく」システムだけでは不十分になってしまった。たとえば、常に流れ続けるデータ(データストリーム)の中から、ある傾向や予兆を察知し、そのデータの変化に自律的に反応して、必要な処理を行うような仕組みも必要とされる。いわゆる「CEP(Complex Event Processing:複合イベント処理)」や「ストリームコンピューティング」などと呼ばれるデータ処理の技術である。これらは、かつて金融業界などで一般的に使われていたが、現在では製造、物流をはじめとする他の業界での活用も進みつつある。
ビッグデータに対応可能なシステムを考えたとき、物理的なデータの置き場所(ストレージ)に加えて、データ管理の仕組み(RDBMS、CMS)や、これらを適切に処理し、関連づけ、視覚化するソフトウェアのいずれもが重要性を増す。特に近年、大手ベンダーによるストレージベンダー、ビジネスインテリジェンス(BI)ベンダーの買収が続く背景には、これらを総合的に提供できる体制を作りたいという意図があったはずだ。
分析ソフトウェアの分野では、たとえば、BAO(Buisiness Analytics and Optimization)を事業の柱のひとつに据えるIBMによるBIベンダー、Cognosの買収もそうした事業強化の流れの一環だった。また、2008年には、検索システム専業ベンダーだったFAST Search & TransferがMicrosoftに買収され、その技術がSharePoint Serverファミリーに組み込まれたのも記憶に新しい。従来、「BI」や「エンタープライズサーチ」の中核となっていた技術は、ビッグデータの時代において、データ処理システムやフロントエンドを構築するための重要なミドルウェアとしての役割を期待されているのである。
非公式な情報だが、この4月には、HPがSOAやCEP、データ視覚化技術を持つソフトウェア企業 TIBCO Softwareの買収を計画していたが頓挫したとの報道もあった(ロイター)。今回のオートノミーの買収に向けた動きが、それに続くものと考えれば、HPがビッグデータ市場で、ハードウェアからソフトウェアまでの関連製品とサービスをワンストップで提供することを目指し、そのために必要な技術を、是が非でも手に入れたかったのではないかと考えることができそうだ。