<前編>
AAAI2日目は招待講演(Invited Talk)が2件ありました。
1件目はケンブリッジ大学のSteve Young教授による講演です。この講演では“対話システム”についての簡単なイントロダクションからはじまり、 流行りの深層学習系(CNN、LSTM)を活用したそのアーキテクチャの解説などがありました。まさに現在だと日本でも、利用者とのチャット上でのコミュニケーションを、AIで自動で進める「チャットボット」の活用が進んできており、この周辺の技術もどんどん実活用されているのだなと感じます。
2件目はロンドン大学のPeter Dayan教授による講演です。「人工知能の世界で使われている強化学習という手法と人間の脳(ニューロン)が物を覚える仕組みが似ている」という話を、実証研究の結果も踏まえて話されていました。
元々、ニューラルネットワークという機械学習手法自体が脳の構造にインスパイアされたので、近しいものがあるようにも思えますが、“物の覚え方そのもの”が似ているというのは新鮮な驚きです。
鳩が光の点をつつくと餌が出てくるというのを学習するまでのプロセスを動画で紹介(筆者提供)
招待講演に続いて、テクニカル・トーク(Technical Talk)については、ほぼ終日クラスタリング関連の講演トラックに参加しました。クラスタリングとは、多数あるデータを適当な集団(グループ)に“分ける”手法です。
従って、この分野の研究は、非常に簡単に言えば、“分ける”方法論をどのように高度・精緻化するのかについて皆さん凌ぎを削っているということになります。
具体的にどのような内容の講演があったのか説明しておきましょう。
昔からよくやられているクラスタリング手法では、あるグループに対しては、そのグループを表す1つの“代表的な点(いわゆる重心など。国でいうと首都と考えれば良いです)”が割り当てられるのですが、1つのクラスタに複数の代表点を割り当てる(首都だけではなく政令指定都市まで考えることに似ています)ことで、既存の手法よりもより精度良くクラスタリングできるアルゴリズムの提案がありました。
また、複数のクラスタリング手法を同じデータセットに適用し、Kaggleというというデータ分析競争サイトではもはや定番となってしまった“複数の機械学習結果を合体させる”アンサンブル学習を活用するという研究の話がありました。
このクラスタリングの講演は質疑応答も非常に活発で熱気があり、参加者の方々のクラスタリング手法への並々ならぬ興味を感じ取ることができました。実際、私もこのクラスタリングの研究発表を聴講させていただき、数多くの手法がそのまま業務(実際の企業保有のデータ)に使えそうだなと感じました。
それでは、残る3、4日目の講演の話に移りましょう。