その量がこれまでとは異なる“ビッグデータ”だが、その質も異なっている。そこから企業にとって価値ある洞察や知見を生み出すには、従来とは異なる“ビッグアナリティクス”が必要になっている――。
データウェアハウス大手の米Teradataのユーザー企業が中心となって運営するイベント「Teradata PARTNERS 2010」が10月24〜28日に開催。イベント2日目となる10月25日の基調講演でTeradataでビジネス開発とマーケティングを担当するエグゼクティブバイスプレジデントのDarryl McDonald氏が話したビッグデータ。企業はそのビッグデータにどのように対応しようとしているのか、イベント中に開催されたセッションやメディア向けパネルディスカッションから見てみる。
ビッグデータにはこれまでと異なる分析が必要
McDonald氏が話すビッグデータとは、たとえば個人のブログや、TwitterやFacebookなどのソーシャルメディアなどから生成されるテキストや画像、RFIDから生成されるデータ、センサーネットワークから収集できるデータ、そして企業内に存在する電子化されたドキュメント、スマートフォンに搭載される全地球測位システム(GPS)の位置情報、電子カルテ、電子商取引(EC)サイトのログなどだ。
ドキュメントは電子化されることで、コンピュータで検索できる対象となる。またスタンドアロンのコンピュータで処理されていたデータがネットワークに接続され、ほかのコンピュータからも処理できるようになる。つまり、現在はコンピュータで処理できる対象が爆発的に増加していることになる。
たとえば米通信大手のAT&Tが1日に処理する通信量は19ペタバイト(1ペタバイトは1000テラバイト)という。ある調査では、2010年の1年間でグローバルで生成されるデータ量は1.2ゼタバイト(1ゼタバイトは1000エクサバイト)になるとしている。
イベント1日目の10月24日に開かれたメディア向けパネルディスカッションでは、こうしたビッグデータが中心テーマとなった。パネルディスカッションに登場した、Teradataで最高開発責任者(Chief Development Officer:CDO)を務めるScott Gnau氏は「ビッグデータは今に始まったことではない」と話す。ただ現在のビッグデータは「これまでとは異なったデータであるために、今までとは違った解析が必要になっている」と説明する。Gnau氏は「解析したデータもメタデータとなって、価値を引きだすことができる」とも話している。
イベントの運営委員長を務める、AT&TのMatthew Boos氏(セールスパフォーマンス&プランニング&分析担当ディレクター)はパネルディスカッションの中で「AT&Tはビッグデータに直面している」と言う。「携帯電話がブロードバンドで接続され、何百万台がGPSなどさまざまなデータを生成している。しかもブロードバンドであるため、大量のデータをアップロードすることができる」と説明する。