編集部からのお知らせ
「ZDNet Japan Summit」参加登録受付中! 
新着記事集:「負荷分散」
データサイエンティスト講座

統計学はなぜ重要なのか--推測統計と記述統計からビッグデータを考える

伊藤徹郎(ALBERT)

2014-01-14 07:30

 2013年はビッグデータという言葉が流行した年でした。多くの企業がビッグデータの対応に乗り出し、体制を整えたことなども、記憶に新しいと思います。ただ、なかなか実際的な話は聞こえて来ず、次はスモールデータだという論調もあります。振り返る意味も込めて、ビッグデータとは何かを解説し、そこからマーケティングへつなげるためにどういったことが大切なのかを今回は解説します。

あらためてビッグデータとは

 もはや聞き慣れた方も多いと思いますが、改めてビッグデータとは何かについて記載しておきます。ビッグデータにおける明確な定義はないものの、「3V」や「4V」での定義というものが一般的です。3Vとは「Volume、Variety、Velocity」の3つの頭文字のVを取ったものであり、多量、多用かつ高頻度に発生するデータのことです。その他にValue(価値)をつけた4Vで定義されることもあります。

 よくデータ量の多寡のみでビッグデータを語る方も多いのですが、それだけでは不十分であり、自社データだけでなく外部のデータも利用するなどの多様なデータを扱い、センサデータやウェブの行動履歴(ログ)のように日々大量のデータが常に蓄積されるような特徴も合わせて考える必要があります。

 これらのデータを適切に処理する手段として、近年活用されてきたのが「Hadoop」を中心とした製品、サービス群でした。Hadoopが広く使われるようになったのはGoogleが、大量のデータをさばく技術としてこれを公開したことがきっかけです。HadoopはApache Software Foundationがオープンソースとして公開しているため、多くの企業が活用に乗り出しました。Hadoopに関して、多くの解説記事が出ているため、詳細は譲ります。

 また、Amazon Web Services(AWS)のようなクラウドサービスが普及することで、さらに手軽に大規模分散処理環境を構築できるようになったことも普及の後押しとなりました。

 では、ビッグデータと統計学とはどのように関わっているのでしょうか。

ZDNet Japan 記事を毎朝メールでまとめ読み(登録無料)

特集

CIO

モバイル

セキュリティ

スペシャル

ホワイトペーパー

新着

ランキング

  1. クラウドコンピューティング

    Google Cloudセキュリティ基盤ガイド、設計から運用までのポイントを網羅

  2. セキュリティ

    仮想化・自動化を活用して次世代データセンターを構築したJR東日本情報システム

  3. ビジネスアプリケーション

    スモールスタート思考で業務を改善! 「社内DX」推進のためのキホンを知る

  4. セキュリティ

    Emotetへの感染を導く攻撃メールが多数報告!侵入を前提に対応するEDRの導入が有力な解決策に

  5. セキュリティ

    偽装ウイルスを見抜けず水際対策の重要性を痛感!竹中工務店が実施した2万台のPCを守る方法とは

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNet Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]