Pedersen氏によると、SAPは同社のソフトウェアが取り扱うほとんどすべての業務プロセスを対象に、AIを追加すべきかどうかを見極めているという。例として、SAPの資産管理機能に対する予測メンテナンス機能の搭載が挙げられる。同氏は、要となるデータがなければAIに価値はないとも指摘した。SAPにはそのデータがあり、それをHANAプラットフォームおよびLeonardoプラットフォームと組み合わせることで、AIを日々の作業において有益なものにできるのだという。
MapRにおけるMLへの取り組み
肝心のデータが無ければAIに価値はなく、データに重力があり、1つの場所に集積していくとすれば、データプラットフォームにAIを搭載するのは理にかなっている。これにより、プラットフォームからデータを取り出し、データ科学者のコンピュータに移送後、分析するよりもずっと効率的になる。MapRはこの点に力を入れており、四半期ごとの製品アップデートでそういった機能を実現してきている。
MapRの上級製品マーケティングマネージャーであるAnkur Desai氏は、2月8日にリリースされた「MapR Expansion Pack(MEP)4.1」について語ってくれた。Desai氏は、MEP 4.1が「Apache Drill」に進歩をもたらすとともに、JSONのドキュメントストアモードを使用する際の「Apache Spark」と「MapR-DB」間の新たな統合を実現すると説明した。また、Spark上で動作するJavaやPythonのコードからMapRのOpen JSON Application Interface(OJAI)に直接アクセスできるようになっている。なお、これまでOJAIは、Scalaコードのみをサポートしていた。
MEP 4.1とともに、「MapR Data Science Refinery」はバージョン1.1となり、クラスタをまたがって実行するPySparkのコード(つまりSpark上で実行されるPythonコード)もサポートされた。MapRは、「Apache Zeppelin」ノートブックシステムとMapRクライアントの双方を保持したコンテナイメージを使用することで、こういったサポートを実現している。このようなコンテナイメージをクラスタ内のノードにプッシュすれば、Spark上のデータ科学指向のPythonコードが分散形式で実行されるようになるわけだ。