SAS Institute Japanは3月3日、オープンソースソフトウェア(OSS)の分散並列処理プログラミングフレームワーク「Apache Hadoop」上でデータを統合、品質を管理するソフトウェア「SAS Data Loader for Hadoop」を国内で提供開始すると発表した。Hadoopの能力を最大限に引き出し、ビッグデータのための分析基盤としてさらに浸透させるという。
Data Loader for Hadoopは、SASのデータ品質管理やデータ統合の機能をベースとし、Hadoop環境で動作するよう設計されている。直感的に操作できるウィザード形式のGUIでビジネスアナリストやデータサイエンティストは専門的なスキルがなくても容易にデータを移動、変換できると説明。ウェブブラウザ内で動作し、Hadoop上の複雑なデータ変換の設計や作成、実行を効率化できるとしている。
従来、こうした処理を実行する場合には、高度な専門知識が必須だった。Hadoopはコスト効率に優れたアーキテクチャであり、市場への浸透が加速している。だが、ビジネスレベルで活用するにはセキュリティの確保、容易なデータ統合やデータ品質管理などの機能が必要となり、ビジネスユーザーが容易に操作できる操作性が求められていたと背景を解説する。
Data Loader for Hadoopは、データ品質関連の処理をHadoop上で実行可能にすることで、信頼性の高いデータの提供を迅速化し、大量のデータセットが存在する環境でより頻繁なデータ活用が可能という。ビジネスユーザーは、IT部門に負荷をかけることなく自らデータを管理、変換、クレンジング、準備でき、スムーズに正確な結果を導き出せるとしている。
企業はデータガバナンスに関するコンプライアンスを改善し、刻々と変化するビジネスニーズに応えられると説明。Hadoopに関わるスキルギャップを解消してビッグデータへのアクセスが加速され、生産性の向上にもつながるとメリットを解説している。
ビジネスユーザーだけでなくデータサイエンティストにとっても、より効率的にデータを処理できるため、データの移動を最小限に抑制し、より少ない負荷でデータを準備できるとしている。