Teradataでは、実際にADWで1ミリ秒以内のレスポンスタイムを保証しながら戦術的な作業を行って、非常に長く複雑なクエリにも答えて連続データ読み込みを行うという処理を、常にすべて同時に行っているという高い性能の参照モデルがすでにいくつもあります。
Exadataはアプライアンスですが、混合ワークロードの実証はまだできていない状態です。HANAに至っては、まだリリースされたばかりという状態です。そのためHANAが持っている本当の強み、将来性は未知のものであると言わざるを得ません。
重要なETL
――ExadataやHANAのメリットを強調する人は「従来型のDWHは統合基幹業務システム(ERP)やSCMの業務系からETLするのに1~2日、あるいは1週間という長い時間がかかる。だから既存のDWHは遅い」という言い方をします。そういった意見に対しTeradataはどう反論しますか。
時間がかかるという点は、確かにOracleをデータソースとすると、その通りかもしれません。また、SAPはSAP以外のソースからデータを持ってきて統合することに苦労しています。もっと速さを求めるなら、私は両社にHadoopを提案したいです。
InformaticaやTalendという会社がありまして、彼らはETLの速度を上げるためにClouderaと提携関係にあります。おそらく他のETLベンダーも同じ方向に行くのではないかと思っています。ETLというのは、DWHの設計の中で重要なプロセスで、データをきれいに整理するところです。きれいにしなければならないデータというのは、ERPをソースとしているものが多いのです。
――ビジネスインテリジェンス(BI)を導入したけど、データの精度が悪くてユーザー部門の欲しい情報にならないということをよく聞きますが、ETLで気を遣わなければならないポイントは何ですか。
DWHを決定づける要素には、データを持ってきて統合する部分と、DBでいかに分析処理を行うかという分析のパフォーマンスの2つがあります。この2つは、他の技術では置き換えられない部分です。DWHが注目され、情報が得られるようになって生産性が上がったといわれていますが、同様にETLのプロセスも重要であって、そのプロセスがきっちり回っていればこそ、最終的にエンドユーザーの生産性が向上するのです。
――Teradataが創業した1984年、単位としてのテラは非常に巨大な印象があったと思います。でも今やテラバイト級のHDDは個人ユーザーでも手軽に入手できる身近な容量になっています。そこで、たとえばエクサを上回るZettadataといったブランドや社名への変更を考えないのですか。
非常にいいアイデアですね(笑)。ですが、私たちはこれからもずっと元々のブランド名を掲げていきたいと考えています。たとえばExadataがいいのでしょうが、すでにそうした製品がありますからね(笑)。
Keep up with ZDNet Japan
ZDNet JapanはFacebookページ、Twitter、RSS、Newsletter(メールマガジン)でも情報を配信しています。現在閲覧中の記事は、画面下部の「Meebo Bar」を通じてソーシャルメディアで共有できます。東日本大震災の情報は、特設サイト「ZDNet Japan after 3.11」にまとめています。