本稿は特集「ビッグデータとは何か」の第11回目。今回は国内ベンダーの動向について簡単に見ていこう。
「ビッグデータ」のようにインフラのシフトを伴う動向は、現時点の米国系ベンダーによるプラットフォーム支配構造をある程度は打ち崩せる可能性を提供するため、国内ベンダーにとっては千載一遇のチャンスと言えよう。Hadoopがデファクト標準のひとつとなることは確実だが、その上位レイヤーで勝負できる機会は十分にある。
ビッグデータPaaSでプラットフォーム取りに出た富士通
IT業界において長期的な成功を勝ち取る最短の道は、独自仕様製品でプラットフォームを支配することだ。Wintel、Oracle、Appleなどの成功を見ればわかる。
残念ながら、日本のベンダーは長期的に見てプラットフォーム領域での支配権を失いつつある。しかし、既に支配的ベンダーが存在する領域(たとえばパソコンOSやDBMS)において、プラットフォームの制御権を奪還することは事実上不可能だ。プラットフォーム支配を狙うなら今までになかった新しい領域でなければならない。
そのような文脈で富士通の「ビッグデータ」戦略を見てみると興味深い。
最近の富士通のビッグデータ関連の顕著な動きとして「コンバージェンス・サービス・プラットフォーム」の発表がある。「世界初のビッグデータ対応PaaS」と銘打たれたクラウドサービスだ。Hadoopに加えてCEP(複合イベント処理)や分析系ソフトを総合的ミドルウェア基盤として段階的に提供していく意向が発表されている。
これは「ビッグデータ」そしてクラウドという2つのパラダイムシフトを活用して、今までになかったインフラにおいて主導権を獲得しようとする試みと言えよう。
富士通の最大の課題は、グローバルなユーザー層を獲得することだろう。クラウドも「ビッグデータ」も「規模の経済」のビジネスである。しかし、実は、富士通はHPとIBMに次ぐ世界第3位規模のITベンダーでもある。適切なフォーカスさえ行なえば、米国系ベンダーと同等レベルの規模の経済を実現できる可能性は十分にあるだろう。
ただし、この種の「クラウド上でビッグデータ」系のサービスに共通して言える課題だが、ユーザー企業はデータの移動に関する設計を入念に計画する必要がある。この特集でも何回か提起した問題だが、クラウド上で高速な処理を行なうために、インターネットを経由して大量データを転送するような設計を避けるよう注意が必要だ。