Hortonworksは米国時間3月1日、同社のエンタープライズ向け「Hadoop」の配布方法を変更することを発表した。Hewlett Packard Enterprise(HPE)と協力関係を結ぶことも同時に発表している。
具体的には、「HDFS」「MapReduce」「Yarn」「Apache Zookeeper」などをはじめとするApache Hadoopのコアコンポーネントは、1年ごとにアップデートされることになるという。「Spark」「Hive」「HBase」「Ambari」などのコアHadoop上で動作するサービスは、グループ化された上で、年間を通じてアップデートされる。
- TechRepublic Japan関連記事
- ビッグデータの世界に立ち向かう--NoSQLという答え
- Uberの事例に学ぶ--NoSQLが最適解でない時
- リアルタイム分析の課題--データをどう組み合わせるべきか
同社はまた、「Hortonworks Data Platform」と「Hortonworks DataFlow」の新バージョンをリリースした。Hortonworks Data Platform 2.4には、最新版であるApache Spark 1.6やHortonworks DataFlow 1.2を含むさまざまなアップデートが含まれている。Hortonworks DataFlow 1.2には、「Apache Kafka」や「Apache Storm」をはじめとするストリーミングアナリティクスツールが追加された。
Hortonworksの取り組みは、エンタープライズ向けHadoop市場が成熟してきていることを示している。Red Hatと同様に、Hortonworksもコアの安定性を維持しつつ、重要なイノベーションを取り込む方向に向かっている。
同社はまた、今回発表したHPEとの協力関係について、その目的はオープンソースクラスタコンピューティングのフレームワークである「Spark」のエンタープライズ環境におけるパフォーマンスを最適化することだと述べている。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。