濱野:分析を行うためには、ツールを使うというセンス以外に、仮説を立てると言うセンスも必要になってきます。そういう部分への注目が高まってくるでしょうね。
石川:Hadoopを使う場合、MapReduceのロジックは自分で書かなければいけないわけですけど、そのためには統計やマイニングの知識が不可欠です。そういうノウハウは開発の現場の人は持っていないので、リクルートの場合は分析専門のチームに参加してもらうことで補っています。
山口:日立でも分析や統計を積極的に進めてきたチームがあるので、そういったこれまでのノウハウを整理して、ビジネスに結びつけて展開していこうという意識はあります。単に速いというだけでは、あまり意味がないですから。
冨田:IT部門に「分析」という機能をうまく取り入れていかなければならないんですね……なかなか難しそう(笑)
石川:我々の場合は、まったく新しい機能を作るのではなくて、まずは既存のマイニングツールの機能をHadoopのロジックで組んでみることから始めています。そうやって分析に関する既存のノウハウを蓄積することで、ポイントを掴みながら、徐々に新しいものを取り入れていくという感じです。あとは、Hadoopを使ってどんどん実戦経験を積んでいくというパターンですね。
濱野:分析処理を行う場合、Hadoop上のアプリケーションっていうのは、最初に設計からガッチリ作って動かすという性質のものではないですね。トライアンドエラーで、とにかく実戦でノウハウを試していけるという点は魅力的だと思います。
ビッグデータの需要が大きい分野は?
冨田:ネット企業のようなIT系以外で、ビッグデータの活用がうまくマッチする分野はありますか。