収集された大規模データの大半は不正確かつ圧倒的な量で、複雑なものであり、サイロに保存されている場合が多い。組織はデータを手にしていると確信している一方、実際に持っているものは次のいずれかでしかない。1つは、ストレージのプロバイダーに利益をもたらすだけの、意味のある信号へと決して変換されない雑音であり、もう1つは使い方が分からず、なぜ使うかすら分からず、何かと結びつけられることも関連付けられることもない、ばらばらの不適切なデータだ。
収集され、処理され、保存され、使用されるデータは常に目的に見合った整合性を持っていなければならない。その目的を決定するのは、かつては企業だったが、現在では特定の成果を要求する顧客となっているため、処理/保存/使用されるデータの量が変わっている。
重要なのは収集されたデータの量ではなく、データが実際に持つ有用性なのだ。データに基づく意思決定(自動的に行うにせよ、人の意思決定を助けるにせよ)が推進されるようになるにつれ、プロセスはデータ(過去のデータと新しいデータの双方)の活用方法を継続的に改善していくためにより優れた、そしてよりクリーンなデータとともに、過去の教訓を必要とするようになる。過去に何が起こったのかを学ぶことで、実世界と同様に、次により優れた意思決定が行えるようになる(そしてそれらは人工知能や機械学習の基礎にもなる)。
いつか必要となるであろう状況に備えてデータを保存しておくことは、無意味な雑音でプロセス自体を汚染する行為に他ならない。組織は、使用したデータの意味、そのデータソース、用途、使用方法を理解しておく必要があるものの、より重要なのはデータの使用と保存に際する該当データの価値命題が何かという点にあるのだ。
こういった観点があってこそ、顧客の期待を理解し、プロセスを最適化し、成果を達成し、洞察を導き出すといったことを可能にする、完全にリアルタイムで、集約されたデータリポジトリが生み出せる。
ただ、このような成果を実現するには、優れたデータプラットフォームが必要となる。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。