Amazonのエンジニアは、「Alexa」のアルゴリズムを修正して、人間が実際に命令する前に望みを察して解決策を提供できるようにしようとしている。
例えば、紅茶の蒸らし時間を尋ねれば、推奨される時間の長さでタイマーをセットするかどうかを尋ねてくるのだ。
AlexaのエンジニアであるAnjishnu Kumar氏とAnand Rathi氏は、ブログ記事の中で、今回の改良は、Alexaとのやりとりをできる限り自然にしようと常に取り組んできた結果だと説明している。
Alexaとの会話は、人間との会話と同じくらい自然であるべきであり、会話の流れをなめらかにするためには、次にくる話題を予測することが重要だという。
Kumar氏とRathi氏は、「私たちは、Alexaに顧客の潜在的な目的を推測する機能を付けることで、自然なやりとりに向けて一歩前進しようとしている。推測するのは、顧客のリクエストの中に暗黙のうちに含まれているが、直接的には表現されていない目的だ」と述べている。
バーチャルアシスタントでこの水準の知性を実現するのは難しいことで、それには多くの高度なアルゴリズムが必要になる。隠れた目的を把握するためには、ユーザーのリクエストに含まれている複数の特徴を分析して、それらを過去の会話のパターンと比較しなければならない。そのモデルを構築するには、顧客の行動を学習させ、例えば紅茶の蒸らし時間を尋ねたユーザーが、それに続いてその時間分のタイマーを設定するよう命令することが多いと覚えさせる必要がある。
Alexaが最初に受け取ったリクエストから特定した情報に基づいて、それに続く提案を作成するプロセスも、同じくらい難しい課題だ。次に使用するスキルに構造化された情報を引き継ぐためには、ユーザーが話した言葉の文脈に関する情報を収集する必要がある。Amazonのエンジニアは、この遷移を可能にするために、「文脈引き継ぎモデル」と呼ばれるモデルを開発した。
もっとも大変だった作業の1つは、そもそもAlexaにユーザーの意図を推測させるべきかどうかを見極めることだったという。Kumar氏とRathi氏は、「初期の実験で、隠れた目的の発見を行うにはそぐわない会話の文脈もあることが明らかになった」と述べている。
記事によれば、「例えば、ある初期のプロトタイプは、顧客が『鶏肉のレシピ』を尋ねると、『ニワトリの鳴き声を再生しますか?』という間違った質問を返した」という。
2人は、顧客との会話の中にあるさまざまな要素で構成される深層学習モデルを使用して、提案を行うべきかどうかを判断させている。このアルゴリズムは、会話の文面やそれ以前のユーザーの行動(これには、そのユーザーがAlexaのマルチスキル提案とどの程度やり取りしたかなども含まれる)などのさまざまな要素に基づいて評価を行う。
Kumar氏とRathi氏は、「Alexaのスキルを見つける手助けになり、顧客にとっての有用性を高めることができるため、われわれはこの発明に興奮している」と述べている。
2人は、Alexaが追加の質問をするのは、文脈として適切な場合だけだと主張しているが、この技術に欠陥があれば、Alexaの行動が押しつけがましいものになってしまうこともあり得るだろう。Alexaが質問の文脈を取り違えて、不適切なリクエストを提案し始めれば、ユーザーは迷惑に感じるかもしれない。
今のところ、この新機能は米国の英語を使用するユーザーにのみ提供されている。この機能をアクティブにするために、スキル開発者が作業を行う必要はないという。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。