編集部からのお知らせ
「ZDNet Japan Summit」参加登録受付中! 
新着記事まとめ:DX推進、IT人材や内製化動向

ビッグデータはなぜ分かりづらいのか--肥大化のメカニズム - (page 4)

Ken Hess (Special to ZDNet.com) 翻訳校正: 村上雅章 野崎裕子

2013-07-05 07:30

 ビッグデータへの理解不足は、その管理面から生み出されている場合も多い。これだけのデータ量とデータの複雑さを管理する方法について熟知している人材はとても少ない。ほとんどの企業は、自らでソリューションを組み合わせてきている。各部門は部門内のデータをさまざまなやり方で管理しようとしているのが一般的だ。これでは、ばらばらなデータを大量に保管しているというだけでなく、ばらばらな場所にデータを格納し、ばらばらなデータテクノロジを採用していることになる。つまり、ビッグデータが大規模なデータを意味しているというだけでなく、大規模な混乱状態をも意味しているのである。

補足:筆者がUPSを例に挙げたのは、同社が大量のデータを生み出しているという事実を知っていたためである。UPSのウェブページによると、現在同社は16ペタバイトの情報を管理しているという。

注1: IBMの分析による。

注2: UPS(United Parcel Service)--筆者はあくまでも、この会社を1つの例として挙げているだけである。筆者はUPSと何のつながりもなく、同社のサービスを利用している顧客の1人に過ぎない。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNet Japan 記事を毎朝メールでまとめ読み(登録無料)

特集

CIO

モバイル

セキュリティ

スペシャル

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNet Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]