「ビッグデータ」分析=データマイニング+α
次にデータ分析に話を絞って「ビッグデータ」の応用を考えてみよう。
「ビッグデータ」の分析は、一般に「ビッグ・マス(big math)」(mathはmathematics<数学>の略)と呼ぶ。「ビッグ・マス」の本質は、従来からデータマイニングと呼ばれていた分野にかなり近い。データマイニングとはデータに内包されたさまざまな有用な知識を分析アルゴリズムにより「採掘」(マイニング)するテクノロジーの総称だ。
従来型データマイニングと「ビッグ・マス」の相違は、
- 「ビッグ・マス」では超大量データを扱う
- 「ビッグ・マス」では非定型データと定型データを合わせて扱うことが多い
- 「ビッグ・マス」ではリアルタイム性が高いデータを扱うことが多い
などの点にある。しかし、従来型データマイニングの世界でもこれらの要素はまったくないわけではなかった。たとえば、世界最大の小売チェーンであるWal-Mart Storesでは、20年近く前から全米の店舗の詳細データを格納する超大規模データウェアハウス(現在のデータ量はペタバイト級)を活用したデータマイニングを行なっている。ゆえに、ここからここまでがデータマイニング、ここから先は「ビッグ・マス」という明確な境界線を引くことはあまり意味がないと言えるだろう。
広がる「ビッグデータ」の世界
「ビッグ・マス」とデータマイニングの定義の問題にはあまりこだわる必要はないと思うが、今後「ビッグ・マス」の世界が従来型の数値分析の世界を越えて広がっていくことは確実だ。ベンダーやユーザー企業には「ビッグ・マス」を活用して今までにないソリューションを提供し、新たな市場のリーダーとなれる可能性が開けている。(なお、弁理士でもある筆者の老婆心だが、このような斬新なアイデアを考案した場合には是非とも特許出願を検討すべきと思う)。
今までにない発想のソリューションの例として、Googleが提供するGoogle Translateというサービスがある。