モバイルアプリで機械学習が利用可能に--グーグルが発表したFirebase向け「ML Kit」の機能拡張など

Stephanie Condon (ZDNET.com) 翻訳校正: 石橋啓一郎

2019-05-09 06:30

 Googleは米国時間5月7日に、同社のモバイル開発プラットフォーム「Firebase」に関するいくつかの最新情報を発表した。特に注目すべきは、Googleがカスタムモデルにも対応した、すぐに利用できるオンデバイスおよびクラウドベースのAPIを持つ機械学習SDK「ML Kit」に新機能が導入されることだろう。ベータ版として導入される新機能は「On-device Translation API」「Object Detection & Tracking API」「AutoML Vision Edge」だ。

 Googleがこれらの最新情報を発表したのは「Google I/O」でのことで、同社は例年このカンファレンスでいくつかのAI関連の発表を行っている。Firebaseに関するニュースは、カンファレンス1日目の「Developer Keynote」で発表された。

 On-device Translation APIを利用すると、テキストを高速に58言語に動的翻訳するオフラインモデルにアクセスできる。このAPIが使用している機械学習モデルには、「Google翻訳」で使用されているのと同じものが使われている。またObject Detection and Tracking APIは、ライブのカメラフィードから、もっとも目立つ物体をリアルタイムで発見し、追跡することを可能にする機能だ。例えばIKEAは、この新APIを使用して、ユーザーが家具の写真を撮影して、小売店のオンラインカタログから同じ製品や似た製品を見つけることができるモバイルアプリを作成したという。

 AutoML Vision Edgeは、画像分類のカスタムモデルを作成するための機能で、例えばこれを利用すれば、食べ物の種類や動物の種類を見分けるアプリを作ることが可能だ。開発者は、得られたトレーニングデータをFirebaseのコンソールにアップロードし、Googleの「AutoML」を使用して独自の「TensorFlow Lite」モデルを構築して、それをユーザーのデバイス上で実行することができる。

 Firebaseについては、ML Kit関連以外にもいくつかの最新情報が発表された。例えば、Googleは「Firebase Performance Monitoring」をベータテストとしてウェブアプリにも拡張した。「Google Analytics for Firebase」にも新しくユーザーリスト構築機能が導入される。

 また、同社のフルマネージドNoSQLデータベース「Cloud Firestore」内でのコレクショングループクエリにも対応する。Googleは、クラウドファンションのエミュレーターも新たにリリースする。

 さらに、「Firebase Crashlytics」にカスタマイズ可能なベロシティアラートが新しく導入されるほか、「Firebase Test Lab」にも改善が施されるという。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

マイナンバーカードの利用状況を教えてください

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]