海外コメンタリー

テクノロジ企業にはびこる「女性デジタルアシスタント」に異議あり

Adrian Kingsley-Hughes (ZDNET.com) 翻訳校正: 沙倉芽生

2016-04-30 06:00

 「Alexa」「Tay」「Siri」「Cortana」「Xiaoice」「Google Now」といったテクノロジに共通していることがある。これらは一般向けのデジタルアシスタントだが、すべて「女性」の声やペルソナを採用しているという点だ。

 ちょっと気持ち悪いと感じるのは私だけだろうか。


Microsoftの「Cortana」は、ビデオゲームシリーズ「Halo」に登場する人工知能のキャラクターにちなんで名付けられた。

 私が「女性」という言葉をカギ括弧に入れて使っているのも、かなり意図的である。こうしたテクノロジソリューションをどのように見せようとしているのか、またTayやXiaoiceに至ってはどのようにふるまわせようとしているのか知らないが、これらのデジタルキャラクターは女性ではない。すべて偽物なのだ。上っ面だけのフィクションと言っていい。

 彼女らは、女性でもなければ人間でもない。単なるコードであり、女性のようにふるまうようプログラムされているだけだ。

 注釈: 英国など一部地域では、Siriのデフォルト設定は男性である。

 この事実に私はとても違和感を感じる。テクノロジ企業で働く従業員の男女比には大きな差があり、こうした企業が皆デジタルアシスタントやチャットボットを「女性」にしようと考えたのだから。

 Microsoft、Google、Apple、Amazonが公開している2015年の技術系従業員の男女比は、以下の通りだ(Amazonのみ内訳を公開していないため、会社全体での比率)。

  • Microsoft: 男性83.0% | 女性16.9%
  • Google: 男性82.0% | 女性18.0%
  • Apple: 男性79.0% | 女性22.0%
  • Amazon: 男性61.0% | 女性39.0%

 つまり、われわれは「女性」のペルソナを持つようプログラムされたコードを利用しているが、そのコードは男性が大半を占める企業から提供されているのだ。

 これは、われわれが日々接しているデジタルアシスタントの声やペルソナが偏っているという事実だけでなく、男性の好みを象徴していると言える。Appleは、妊娠中絶に対するSiriの回答を修正するのに4年以上かかったが、今でもSiriで売春婦やバイアグラの検索は問題なく行えるようになっている。

 AppleはSiriを宣伝する際、この事実には触れていない。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]