グーグルDeepMind、AIの学習を高速化させる新手法を発表--動物の見る夢から着想

Liam Tung (ZDNET.com) 翻訳校正: 編集部

2016-11-21 10:47

 Google DeepMindの研究者らは米国時間11月17日、「Reinforcement Learning with Unsupervised Auxiliary Tasks」と題した新たな論文の公開を同社ブログで発表した。論文には、動物が夢を見ることで学習速度を向上させている点から着想を得た、「UNsupervised REinforcement and Auxiliary Learning」(UNREAL:教師なしの強化および補助学習)について記されている。

 この知見を取り入れたエージェントを、Atariのゲームと、「Labyrinth」という3D迷路ゲームを使ってテストしたところ、以前のアルゴリズムに比べて学習速度が10倍に高速化されたという。またLabyrinthのテストでは、人間のエキスパートとの比較で平均87%という成績を収めた。

 このエージェントは、囲碁を学習した時や、「Atari 2600」の複数のゲームを学習した時に用いられたものと同じ深層強化学習の手法を採用している。だが、UNREALは深層強化学習に加えて2つのタスクを組み込んでいる点に大きな違いがある。2つのタスクとは、動物が夢を見るということに着想を得たタスクと、乳幼児が運動神経を獲得する方法を模倣するというタスクだ。

 論文には「動物が肯定的な、あるいは否定的な報酬に関わる出来事の夢を頻繁に見るように、われわれが作り出したエージェントも報酬に関わる出来事を含むシーケンスを優先的に再現するようになっている」と記されている。

 研究者らはこのコンセプトを採用し、より大きな報酬を得るための近道につながる、過去の経験から得られた視覚的な手がかりに対してエージェントが注力するよう教育した。

 研究者らはブログへの投稿で「エージェントは、過去の短いコンテキストから、すぐさま報奨を得られる兆しを予測するように訓練された。報酬がまれにしか得られないシナリオにおいて、より優れた対応を採れるよう、過去の報酬が得られた記録と得られなかった記録を同じ割合でエージェントに提示するようにした」と説明している。

 そして「報酬が得られた記録をより頻繁に学習することで、エージェントは報酬を得るための視覚的特徴をより迅速に見極められるようになる」と続けている。

 もう1つのタスクは、与えられたゲームをうまくプレイし、より高いスコアを得るために有用なことを見つけ出せるような、エージェントによる画面上のピクセル制御方法に関するものだ。これにより、エージェントは動作からの学習に注力できるようになる。

 研究者らはこれら3つの技術を組み合わせ、Atariのゲーム57種類とLabyrinthの13のレベルを使ったエージェントのテストを実施した。

 その結果、各ゲームに秀でたエージェントを作り出せただけでなく、それぞれのゲームを学習させるためのカスタマイズも不要だったという。

 研究者らによると、DeepMindの主な目標は「どのような複雑な問題であっても、解決に向けた道筋を教えられることなく自らで学習できる」ようなプログラムを用いてAIの新たな地平を開くことだという。

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]