BI(ビジネスインテリジェンス)ツールが分析・活用の対象とするデータは、企業の資産であるとよく言われる。しかしそれは、データの“品質”が高いことを前提にしている。
不正確で整合性が取れず、古くなってしまったデータはもはや資産ではなく、“負債”と考えても間違いではないだろう。単に複数のデータソースからデータを抽出し、共通のデータベースにデータを保存した状態では、多くの場合分析に耐えうる、十分なデータの品質は得られない。今回のコラムでは、BIにおいて、期待通りの成果を得るために必要なデータ品質とは、どのようなものであるかについて解説する。
データを格納するデータベースのハードやソフトの選定、BIツールの選択、分析アプリケーションの設計などは目に見えやすく、エンドユーザーにも理解しやすい。このために、比較的プロジェクトの初期段階から検討が進み、十分な注意がはらわれることが多い。
だが、分析のためのデータをどう準備するのかという、地味で泥臭い部分は比較的後回しにされがちになる。多くの場合、既存の仕組みや手作りのソフトを駆使して、何とかデータを用意することになり、結果として思いがけず多くの工数を費やすことになると考えられている。
〜データ品質の継続的改善の重要性〜
まずデータの手入力は多くの労力を必要となるうえに、発見するのが困難な「入力ミス」というデータ品質の劣化を招きやすい。このような理由から一度システムにデータが入力されてからその後は、できる限り手作業をなくすようにすべきである。
またデータ品質を高める作業は、初期入力から時間が経過するほど困難になることが多いため、データ入力にできるだけ近い段階で、できる限りのデータ品質の向上を目指すべきである。例えば業務アプリケーションで端末からデータを入力する段階で、単純な入力の間違いをチェックしたり、複数項目間の整合性をチェックしたりすることは、その後のデータ品質を下支えすることになる。また業務系システムからデータを抽出し、変換する段階では、業務アプリケーションごとに異なる例外措置などの調整に焦点を合わせることで、システム全体としてデータ品質を向上させることができるようになる。
BIの分析・活用の対象となるデータの中央リポジトリとしてデータウェアハウスを構築する場合、さまざまなシステムから入手したデータを保存する際に、何らかのデータ変換処理が必要となる。このデータ変換処理には「コンバージョン」と「トランスフォーメーション」という2つの形態があることを、ここで今一度理解しなおすことが重要だ。
コンバージョンは、文字コードの変換や整数表示形式のフォーマット、ケタの切り捨てなどのシステム的な変換を指す。多くの場合コンバージョンについては十分な検討と標準化がなされていると想像できる。