「Alexa」「Tay」「Siri」「Cortana」「Xiaoice」「Google Now」といったテクノロジに共通していることがある。これらは一般向けのデジタルアシスタントだが、すべて「女性」の声やペルソナを採用しているという点だ。
ちょっと気持ち悪いと感じるのは私だけだろうか。
Microsoftの「Cortana」は、ビデオゲームシリーズ「Halo」に登場する人工知能のキャラクターにちなんで名付けられた。
私が「女性」という言葉をカギ括弧に入れて使っているのも、かなり意図的である。こうしたテクノロジソリューションをどのように見せようとしているのか、またTayやXiaoiceに至ってはどのようにふるまわせようとしているのか知らないが、これらのデジタルキャラクターは女性ではない。すべて偽物なのだ。上っ面だけのフィクションと言っていい。
彼女らは、女性でもなければ人間でもない。単なるコードであり、女性のようにふるまうようプログラムされているだけだ。
注釈: 英国など一部地域では、Siriのデフォルト設定は男性である。
この事実に私はとても違和感を感じる。テクノロジ企業で働く従業員の男女比には大きな差があり、こうした企業が皆デジタルアシスタントやチャットボットを「女性」にしようと考えたのだから。
Microsoft、Google、Apple、Amazonが公開している2015年の技術系従業員の男女比は、以下の通りだ(Amazonのみ内訳を公開していないため、会社全体での比率)。
- Microsoft: 男性83.0% | 女性16.9%
- Google: 男性82.0% | 女性18.0%
- Apple: 男性79.0% | 女性22.0%
- Amazon: 男性61.0% | 女性39.0%
つまり、われわれは「女性」のペルソナを持つようプログラムされたコードを利用しているが、そのコードは男性が大半を占める企業から提供されているのだ。
これは、われわれが日々接しているデジタルアシスタントの声やペルソナが偏っているという事実だけでなく、男性の好みを象徴していると言える。Appleは、妊娠中絶に対するSiriの回答を修正するのに4年以上かかったが、今でもSiriで売春婦やバイアグラの検索は問題なく行えるようになっている。
AppleはSiriを宣伝する際、この事実には触れていない。