海外コメンタリー

人工知能の公正さを保つ鍵は、人間による監督--スマートニュース幹部が語る

Eileen Yu (Special to ZDNET.com) 翻訳校正: 村上雅章 野崎裕子

2023-07-05 06:30

 人工知能(AI)は、情報を読み解くために必要となる重要な資質が欠けているため、ユーザーに提示するコンテンツの判定を任せておくべきではない。

ネットワークのイメージ
提供:Yuichiro Chino/Getty Images

 スマートニュースで信頼性と安全性の責任者を務めるArjun Narayan氏は、AIがユーザーに適切なコンテンツを提示するよう保証する上で、人間による監督と、保護策の実装が不可欠だと述べた。

 同社のニュースアグリゲータープラットフォームは世界各地の3000におよぶニュースソースから選び出した記事を提供しており、ユーザーは1日のうち平均23分を同社のアプリ上で費やしているという。同社のアプリは「Android」版と「iOS」版が用意されており、そのダウンロード数は5000万を超えている。東京に本社を置く同社は、言語学者やアナリスト、ポリシーの立案者からなるチームを日本と米国に設置している。

 膨大な数の情報がオンライン上で入手できる現在、同社は信頼できるニュースを、それを欲しているユーザーに送り届けることを使命として掲げている。同社のウェブサイトには「ニュースは信頼できるものでなければならない。われわれのアルゴリズムは数百万件単位の記事や傾向、ユーザーの閲覧行動を評価し、現時点で最も重要なストーリーの上位0.01%を提供するようになっている」と記されている。

 同プラットフォームは機械学習(ML)テクノロジーと自然言語処理(NLP)テクノロジーを活用し、ユーザーの求めるニュースを見極め、優先順位を付けている。また、ニュースソースの信頼性と正確さを判定するためのメトリクス(指標)も利用している。

 同氏によるとこうした点は、真正性に疑問のある情報がソーシャルメディアを通じて消費されるケースが増えている中、極めて重要だという。

 同社はプロプライエタリーなAIエンジンによって、ユーザーが追いかけているトピックスといった個人の好みに基づいてニュースフィードを作り上げている。また同社は、インデックス付けした記事のコンテンツが同社のポリシーに準拠しているかどうかを判定するために、さまざまなMLシステムを用いて分析、評価している。同氏によると、ポリシーに準拠していないソースは除去されるという。

 同氏のチームはカスタマーサポート担当者から報告を受けるようになっているため、ユーザーからのフィードバックは迅速に精査され、必要に応じて取り入れられると同氏は付け加えた。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

マイナンバーカードの利用状況を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]