Microsoftが「Cortana」の位置づけを変更し、「Alexa」や「Googleアシスタント」のような独立したデジタルアシスタントではなく、ユーザーを支援する仕組みとして位置づけているという話が出始めてから、少なくとも1年は経っている。これまで、このことが何を意味するかについては詳しい情報が出回っていなかった。しかし同社は、5月第2週になって新たなCortana戦略についての情報を発信し始めた。
Microsoftの開発者向けカンファレンス「Build 2019」が開催されるまで、この話題に関する手がかりはほとんどなかった。筆者は過去に、同社の役員らから、Cortanaを複雑なマルチパートのクエリを扱えるものにすることで、ほかのパーソナルデジタルアシスタントとの差別化を図るつもりだという話を聞いている。この種の段階を踏んで進めるインタラクションは、Microsoftが研究所で挙げた成果と、Microsoftが2018年にSemantic Machinesを買収した際に獲得した技術を利用したものだ。
しかしMicrosoftのCortana関連製品担当バイスプレジデントAndrew Shuman氏やSemantic Machinesの創業者の1人であるDan Klein氏(現在はMicrosoftのテクニカルフェローを務めている)氏によれば、Microsoftが今後、Cortanaはより賢く便利な生産性アシスタントになると考えている背景には、ほかにも多くの要素があるようだ。
今後のCortanaは、1つの簡単なクエリに対して1つの答えを提供するのではなく、「会話データ」を利用することになるという。Microsoftはこのデータを作るために、「Microsoft 365」と「Office 365」で利用するための人間を中心とした知識の蓄積を積み上げつつある。Shuman氏によれば、同チームは「Microsoft Teams」のチームと協力し、「Johnに電話する」といったクエリを実行したときに、ユーザーがどの「John」を念頭に置いているかを、知識ベースに蓄えられた情報(Shuman氏はこれを「下地」(subtrate)と呼んでいる)から理解できるようにしようとしているという。
Semantic Machinesは、対話的な体験を実現するためのプラットフォームを提供している。重要になるのは、ユーザーがCortanaに対して話しかける内容を解釈できるように、クエリごとに1つのスキルを起動するだけでなく、文脈に応じて言葉を処理する能力を実現できるかどうかだ。Microsoftは、ユーザーがやる可能性のあることをやってみせ、機械学習を使い、トレーニングによって関連する可能性のある(ただし厳密に一致するもの以外のものも含む)文脈を結びつけることによって、Cortanaで利用する会話エンジンのトレーニングを行うことに力を注いでいる。Microsoftは、こうした取り組みによってCortanaをマルチターン・マルチスキルの利用を可能にするサービスに変えようとしている。
外部の人間が新しいCortanaを試せるようになる時期がいつになるかは明らかにされていない。ユーザーが最初に目にするCortanaの応用シナリオは、業務の生産性向上に関するものである可能性が高い。これを実現するには、Microsoft Searchが提供する新しい統一的検索体験の基盤となっているものと同じ「下地」に、連絡先や電子メール、カレンダー、IDなどの情報が供給される必要がある。こうした一連のデータは、場所やニュースなどの公になっている検索データと疎結合されて利用される。
Microsoftはいずれ、パートナーと協力して、この「下地」にサードパーティーのデータも組み込みたいと考えているという。また、Buildで発表されたように、Microsoftは将来この新しい会話エンジン技術を、同社の「Bot Framework」やAzureの各種サービスを通じて、ほかのバーチャルアシスタントでも利用できるようにすることを計画している。
MicrosoftのCortanaに対する新たな取り組みは、AmazonのAlexaとの統合を意味しているのかもしれないと考える人もいるだろうが(筆者もそう考えた)、Shuman氏はそれは違うと述べている。Alexaはショッピングに関する情報といった異なる種類のデータプールへのアクセスを提供するものであり、MicrosoftはCortanaとAlexaの統合を介して、そうしたデータにもアクセスできるようにしたいと考えているという。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。