編集部からのお知らせ
ZDNet Japanが新しくなりました!
New! 懸念高まる産業機器のセキュリティ
データサイエンティスト講座

統計学はなぜ重要なのか--推測統計と記述統計からビッグデータを考える

伊藤徹郎(ALBERT)

2014-01-14 07:30

 2013年はビッグデータという言葉が流行した年でした。多くの企業がビッグデータの対応に乗り出し、体制を整えたことなども、記憶に新しいと思います。ただ、なかなか実際的な話は聞こえて来ず、次はスモールデータだという論調もあります。振り返る意味も込めて、ビッグデータとは何かを解説し、そこからマーケティングへつなげるためにどういったことが大切なのかを今回は解説します。

あらためてビッグデータとは

 もはや聞き慣れた方も多いと思いますが、改めてビッグデータとは何かについて記載しておきます。ビッグデータにおける明確な定義はないものの、「3V」や「4V」での定義というものが一般的です。3Vとは「Volume、Variety、Velocity」の3つの頭文字のVを取ったものであり、多量、多用かつ高頻度に発生するデータのことです。その他にValue(価値)をつけた4Vで定義されることもあります。

 よくデータ量の多寡のみでビッグデータを語る方も多いのですが、それだけでは不十分であり、自社データだけでなく外部のデータも利用するなどの多様なデータを扱い、センサデータやウェブの行動履歴(ログ)のように日々大量のデータが常に蓄積されるような特徴も合わせて考える必要があります。

 これらのデータを適切に処理する手段として、近年活用されてきたのが「Hadoop」を中心とした製品、サービス群でした。Hadoopが広く使われるようになったのはGoogleが、大量のデータをさばく技術としてこれを公開したことがきっかけです。HadoopはApache Software Foundationがオープンソースとして公開しているため、多くの企業が活用に乗り出しました。Hadoopに関して、多くの解説記事が出ているため、詳細は譲ります。

 また、Amazon Web Services(AWS)のようなクラウドサービスが普及することで、さらに手軽に大規模分散処理環境を構築できるようになったことも普及の後押しとなりました。

 では、ビッグデータと統計学とはどのように関わっているのでしょうか。

ZDNet Japan 記事を毎朝メールでまとめ読み(登録無料)

Special PR

特集

CIO

セキュリティ

スペシャル

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNet Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]