グーグル、最新AIモデルで危機にある人々の検索を改善--「MUM」活用

Stephanie Condon (ZDNET.com) 翻訳校正: 緒方亮 吉武稔夫 (ガリレオ)

2022-03-31 15:42

 Googleは、人工知能(AI)モデルを利用し、危機的状況に陥った人々に、より優れた検索結果を提示しようとしている。同社は米国時間3月30日、その概要を明らかにした。自殺、性的暴行、薬物乱用などのトピックについて、有害なコンテンツやショックを与える恐れのあるコンテンツを避けながら、信頼できる有益な情報を人々が必要とするタイミングで効果的に提供する狙いがある。

 同社は、最新のAIモデル「MUM」(Multitask Unified Mode)を利用し、危機にある人々の検索を自動的に、より正確に検出できるとしている。これから数週間をかけて、MUMを導入し、このような改善を実現していくという。MUMは、質問の背景にある検索者の意図をより良く理解できるとGoogleは説明している。

 また、MUMを利用し、検索結果でスパムが減少するよう、数カ月をかけて強化する。役立たない結果や危険な結果の検索順位が下がる可能性がある。

 MUMは75の言語で訓練されている。Googleはこのような改善を世界で展開できる。

 Googleのフェローで検索担当バイスプレジデントのPandu Nayak氏は、「MUMでは、(クエリーの性質を分類するなどの)あるタスクを実行するための1つのモデルを訓練すると、モデルは、知っているすべての言語でそのタスクを実行できるよう学習する」と説明している。

 Googleは2021年の開発者会議「Google I/O」でMUMを披露した。その際、このAIモデルで検索結果をいかに改善できるかということについて、より商業的な例を紹介していた。MUMはマルチモーダルであり、ウェブページや画像などさまざまなフォーマットの情報を理解できる。MUMで強化された検索は、例えばブーツの写真を撮って富士山の登山に使えるかを質問すれば、システムが写真に写ったブーツを解析し、要求された質問に答えるようになるかもしれない。

 また、Googleは言語モデル「BERT」で、好ましくない場合のある結果を大幅に削減していると説明した。2021年には、BERTの改善によって「予期しないショッキングな検索結果」が30%減少したという。

 Nayak氏はBERTについて、「民族、性的指向、ジェンダーに関連する検索で露骨な内容を減少させる上で特に効果を発揮している。こうした内容は、女性、特に有色人種の女性に過大な影響を及ぼす場合がある」と述べている。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. セキュリティ

    「デジタル・フォレンジック」から始まるセキュリティ災禍論--活用したいIT業界の防災マニュアル

  2. 運用管理

    「無線LANがつながらない」という問い合わせにAIで対応、トラブル解決の切り札とは

  3. 運用管理

    Oracle DatabaseのAzure移行時におけるポイント、移行前に確認しておきたい障害対策

  4. 運用管理

    Google Chrome ブラウザ がセキュリティを強化、ゼロトラスト移行で高まるブラウザの重要性

  5. ビジネスアプリケーション

    技術進化でさらに発展するデータサイエンス/アナリティクス、最新の6大トレンドを解説

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]