Googleは米国時間5月7日に、同社のモバイル開発プラットフォーム「Firebase」に関するいくつかの最新情報を発表した。特に注目すべきは、Googleがカスタムモデルにも対応した、すぐに利用できるオンデバイスおよびクラウドベースのAPIを持つ機械学習SDK「ML Kit」に新機能が導入されることだろう。ベータ版として導入される新機能は「On-device Translation API」「Object Detection & Tracking API」「AutoML Vision Edge」だ。
Googleがこれらの最新情報を発表したのは「Google I/O」でのことで、同社は例年このカンファレンスでいくつかのAI関連の発表を行っている。Firebaseに関するニュースは、カンファレンス1日目の「Developer Keynote」で発表された。
On-device Translation APIを利用すると、テキストを高速に58言語に動的翻訳するオフラインモデルにアクセスできる。このAPIが使用している機械学習モデルには、「Google翻訳」で使用されているのと同じものが使われている。またObject Detection and Tracking APIは、ライブのカメラフィードから、もっとも目立つ物体をリアルタイムで発見し、追跡することを可能にする機能だ。例えばIKEAは、この新APIを使用して、ユーザーが家具の写真を撮影して、小売店のオンラインカタログから同じ製品や似た製品を見つけることができるモバイルアプリを作成したという。
AutoML Vision Edgeは、画像分類のカスタムモデルを作成するための機能で、例えばこれを利用すれば、食べ物の種類や動物の種類を見分けるアプリを作ることが可能だ。開発者は、得られたトレーニングデータをFirebaseのコンソールにアップロードし、Googleの「AutoML」を使用して独自の「TensorFlow Lite」モデルを構築して、それをユーザーのデバイス上で実行することができる。
Firebaseについては、ML Kit関連以外にもいくつかの最新情報が発表された。例えば、Googleは「Firebase Performance Monitoring」をベータテストとしてウェブアプリにも拡張した。「Google Analytics for Firebase」にも新しくユーザーリスト構築機能が導入される。
また、同社のフルマネージドNoSQLデータベース「Cloud Firestore」内でのコレクショングループクエリにも対応する。Googleは、クラウドファンションのエミュレーターも新たにリリースする。
さらに、「Firebase Crashlytics」にカスタマイズ可能なベロシティアラートが新しく導入されるほか、「Firebase Test Lab」にも改善が施されるという。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。