海外コメンタリー

囲碁の欧州王者に勝利した「AlphaGo」に見るナローAIとグーグルのアプローチ

Nick Heath (TechRepublic) 翻訳校正: 村上雅章 野崎裕子

2016-02-02 06:30

 Googleの傘下企業であり、人工知能を手がけるGoogle DeepMindによって開発された機械学習システムが、複雑なゲームとして知られる囲碁でプロの棋士に勝利した。しかし、特定分野に的を絞った同社のアプローチに疑問を呈する研究者もいる。

囲碁ソフト「AlphaGo」に見るGoogleのナローAI
囲碁
提供:iStock/zilli

 Googleは、囲碁を究めるだけの潜在能力を備えた機械学習システムを開発した。古代中国に起源を持つ囲碁というゲームは、その複雑さゆえに何十年にもわたってコンピュータの挑戦を退けてきた。

 1990年代の半ばに、IBMのコンピュータ「Deep Blue」はチェスというゲームを究めており、最近ではGoogle DeepMindのシステムが1970年代の古典的なアーケードゲームで人間に勝利している。しかし、囲碁は別格であった。

 チェスでは次に打てる手が20程度であるのに対して、囲碁では200程度にも及んでいる。つまり、囲碁では対局を通じて打てる手の数があまりにも多いため、最善手を求めてそれぞれの手すべてを評価していくには、コンピュータにとって荷が勝ちすぎるのだ。

 しかし今回、Google DeepMindが開発した「AlphaGo」というシステムは、欧州の囲碁大会で優勝しているプロ棋士の樊麾(Fan Hui)氏に勝利した。AlphaGoでは、囲碁のルールをプログラミングしていくのではなく、ポリシーネットワークとバリューネットワークという2種類のディープニューラルネットワーク(DNN)と、先進的な木探索手法であるモンテカルロ木探索(MCTS)を用いて次の手を自ら学習するようになっている。

 標準的な囲碁では、縦横19路の直線が刻まれた四角い碁盤が用いられる。その上で、対局者それぞれが自らの陣地を確保するとともに、相手の碁石を囲んでいくわけだ。このシステムに囲碁を学習させるために、囲碁の達人たちによる3000万に及ぶ指し手がAlphaGoのニューラルネットワークに与えられた。その後、強化学習の手法を用いて、過去の対局データから、どのような手が最善手となる可能性が高いのかを学ばせていった。このアプローチのおかげで、AlphaGoでは対局中に評価する探索空間を削減でき、現実的な時間内に次の手を見つけ出せるようになったというわけだ。

 DeepMindの最高経営責任者(CEO)Demis Hassabis氏は囲碁について、「おそらく、人類がプレイしている最も複雑なゲームだ。碁盤上で考えられる組み合わせは、宇宙に存在する原子の数よりも多い」と表現している。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]