Googleは米国時間10月25日、同社の検索サービスに最新のアルゴリズム「BERT」を導入したことにより、クエリーの理解が向上したと発表した。過去5年で最大の進歩だという。直近の大幅な向上は、2015年の「RankBrain」によるものだった。
BERTは「Bidirectional Encoder Representations from Transformers」の略称で、自然言語処理分野でモデルを作成するための機械学習の一手法だ。
BERTは文中の単語について、前後の単語を見てその意味を推測することができ、これにより「双方向」の推測を実現している。これに対し、非営利の人工知能(AI)研究グループOpenAIが開発する「GPT」は、文中の前の単語だけに注目して推測する「単方向」のアルゴリズムであり、BERTの方が理解度でより有利になるという。
BERTモデルの双方向の解釈により、より文脈に即した単語の理解が実現する。このことは、「Google検索」が検索クエリーの背景にある意図を理解するのに役立つはずだ。とりわけ、前置詞の「to」や「from」などが重要な意味を持つ場合は有効だと、Googleのフェローで検索担当バイスプレジデントであるPandu Nayak氏は説明している。
Googleは2018年にBERTをオープンソース化し、研究の詳細を明らかにした。Googleによると、BERTモデルが複雑なため、検索結果を提供するのに同社の機械学習用プロセッサ「Cloud TPU」を導入する必要があったという。
Googleは、強調スニペット(Google検索の結果上部に強調表示する仕組み)にもBERTモデルを適用している。Googleは、BERTが同社の検索処理能力を向上させ、米国で英語による検索クエリーの約10%を処理することになるとした。同社は段階的に、この新しい自然言語処理モデルの対応言語と市場を拡大していく予定だ。
同社によると、日々入力されるクエリーの15%は前例がないという。BERTモデルは、Google検索がこうしたクエリーをより良く理解するのに役立つとみられる。
Nayak氏は、Google検索が以前、検索結果を返す際に「for」や「to」の重要性を見落とした数例を挙げた。
1つの例は、「2019 brazil traveler to usa need a visa(2019年の米国へのブラジルの旅行者はビザを必要とする)」という文で、「to」は、米国に旅行するのがブラジル人であることを理解する上で重要だ。BERTモデルの導入前は、Googleのアルゴリズムが、ブラジルに旅行する米国人についての検索結果を返した。
もう1つの例は「can you get medicine for someone pharmacy(薬局で誰かの薬を受け取れるか)」だ。以前は、処方薬に関する一般的な回答を提示したが、BERTモデルは、別の人に代わって処方薬を受け取れるかどうかという質問だと理解する。
Googleは、英語以外の言語について、BERTが英語から学習したことを他の言語に応用できると述べている。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。