編集部からのお知らせ
SNS分析のトレンドまとめ
注目「Googleのクラウド事業を読み解く」

写真から先の動きを予想して動画を生成可能な深層学習システム、MITが開発中

Liam Tung (Special to ZDNet.com) 翻訳校正: 編集部

2016-12-05 12:11

 マサチューセッツ工科大学(MIT)の研究者らは、写真の中で何が起こっているのかを読み取り、次に何が起こるのかを予測するという深層学習システムを開発した。

 MITの機械学習研究者が開発したシステムは、静止画にアニメーションを加えることで近い将来にこうなりそうだという考えを示す。例えば波は最終的にはじける、人が野原で動く、電車が線路を前に進むといったことだ。

 この取り組みは、現実の世界でどのようにオブジェクトが動くのかを機械が理解できるようにすることで、今後のコンピュータービジョン研究の新たな方向性を示す可能性がある。

 研究チームは、ディープネットワークに数千時間分のラベルのない(タグのない)動画によるトレーニングを行うことで目標に到達した。研究者が述べているように、動画に注釈をつけるには費用がかかるが、ラベルのない動画は無数にあり、機械が世界についてのシグナルを読むトレーニングに利用できる。

 機械学習とコンピュータビジョンを専門とするMITの博士課程学生Carl Vondrick氏はNew Scientistに、場面で動きを予測できるようになれば、将来、家庭で使われるヘルパーロボットが人の支障にならないようになるだろうと語っている。例えば、人が椅子に腰掛けようとした時にロボットがその椅子を引っ込めてほしくないはずだ。

 このモデルはゴルフコースやビーチ、電車の駅、赤ちゃんのいる病室という4種類のシーンなどFlickrからの200万件の動画を使って訓練されたという。また、敵対的ネットワークという手法が用いられている。

 New Scientistが指摘するように、現時点ではモデルが生成する動画は画質が粗く、約1秒程度と短い。しかし、電車が前に動く、赤ちゃんが顔をくしゃくしゃにするといったシーンの適切な動きを示すものとなっているという。

 もちろん、モデルは世界がどのように動いているのかについてまだ学習の余地がある。例えば電車はある場面から無限に出発を繰り返すのではなく、その場面から出ていくはずだ。それでも、機械が起こりそうな簡単な未来について考え出すよう教えることが可能だということを示すものとなった。


提供:MIT

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNet Japan 記事を毎朝メールでまとめ読み(登録無料)

特集

CIO

モバイル

セキュリティ

スペシャル

ホワイトペーパー

新着

ランキング

  1. クラウドコンピューティング

    マンガで解説、移行済みの担当者にも役立つ! Windows10移行&運用ガイド

  2. クラウドコンピューティング

    カギは物理世界とクラウドの接続あり!成果が出やすいIoT活用のアプローチを知る

  3. クラウドコンピューティング

    IoTにはこれだけのサイバー攻撃リスクが!まずはベストプラクティスの習得を

  4. セキュリティ

    エンドポイントの脅威対策をワンストップで提供 現場の負荷を軽減する運用サービス活用のススメ

  5. クラウドコンピューティング

    家庭向けIoT製品の普及とともに拡大するセキュリティとプライバシー問題─解決策を知ろう

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNet Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]