世界最高峰の人工知能学会「AAAI」では何が語られているのか(後編)

高柳慎一

2017-03-15 07:00

 <前編>

 AAAI2日目は招待講演(Invited Talk)が2件ありました。

 1件目はケンブリッジ大学のSteve Young教授による講演です。この講演では“対話システム”についての簡単なイントロダクションからはじまり、 流行りの深層学習系(CNN、LSTM)を活用したそのアーキテクチャの解説などがありました。まさに現在だと日本でも、利用者とのチャット上でのコミュニケーションを、AIで自動で進める「チャットボット」の活用が進んできており、この周辺の技術もどんどん実活用されているのだなと感じます。

 2件目はロンドン大学のPeter Dayan教授による講演です。「人工知能の世界で使われている強化学習という手法と人間の脳(ニューロン)が物を覚える仕組みが似ている」という話を、実証研究の結果も踏まえて話されていました。

 元々、ニューラルネットワークという機械学習手法自体が脳の構造にインスパイアされたので、近しいものがあるようにも思えますが、“物の覚え方そのもの”が似ているというのは新鮮な驚きです。


鳩が光の点をつつくと餌が出てくるというのを学習するまでのプロセスを動画で紹介(筆者提供)

 招待講演に続いて、テクニカル・トーク(Technical Talk)については、ほぼ終日クラスタリング関連の講演トラックに参加しました。クラスタリングとは、多数あるデータを適当な集団(グループ)に“分ける”手法です。

 従って、この分野の研究は、非常に簡単に言えば、“分ける”方法論をどのように高度・精緻化するのかについて皆さん凌ぎを削っているということになります。

 具体的にどのような内容の講演があったのか説明しておきましょう。

 昔からよくやられているクラスタリング手法では、あるグループに対しては、そのグループを表す1つの“代表的な点(いわゆる重心など。国でいうと首都と考えれば良いです)”が割り当てられるのですが、1つのクラスタに複数の代表点を割り当てる(首都だけではなく政令指定都市まで考えることに似ています)ことで、既存の手法よりもより精度良くクラスタリングできるアルゴリズムの提案がありました。

 また、複数のクラスタリング手法を同じデータセットに適用し、Kaggleというというデータ分析競争サイトではもはや定番となってしまった“複数の機械学習結果を合体させる”アンサンブル学習を活用するという研究の話がありました。

 このクラスタリングの講演は質疑応答も非常に活発で熱気があり、参加者の方々のクラスタリング手法への並々ならぬ興味を感じ取ることができました。実際、私もこのクラスタリングの研究発表を聴講させていただき、数多くの手法がそのまま業務(実際の企業保有のデータ)に使えそうだなと感じました。

 それでは、残る3、4日目の講演の話に移りましょう。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. セキュリティ

    「デジタル・フォレンジック」から始まるセキュリティ災禍論--活用したいIT業界の防災マニュアル

  2. 運用管理

    「無線LANがつながらない」という問い合わせにAIで対応、トラブル解決の切り札とは

  3. 運用管理

    Oracle DatabaseのAzure移行時におけるポイント、移行前に確認しておきたい障害対策

  4. 運用管理

    Google Chrome ブラウザ がセキュリティを強化、ゼロトラスト移行で高まるブラウザの重要性

  5. ビジネスアプリケーション

    技術進化でさらに発展するデータサイエンス/アナリティクス、最新の6大トレンドを解説

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]