「私たちには日常的に考えなくてはならないことが多すぎますし、新たに修得し覚えなくてはならないことが多すぎます。新しい様式、新しい知識、新しい技術、新しい言葉……。しかしそれと同時に、どれだけの時間を経ようと、途中で何が起ころうと、決して忘却することのかなわないものがあります。すり減らない記憶があります。かなめ石のように自分の中に残るものがあります」(村上春樹『海辺のカフカ』)
最近のMicrosoftのレポートによると、AmazonのAlexaやAppleのSiriなど、デジタルアシスタントのユーザーは、潜在的なプライバシーの懸念よりも利便性を重視し続けている。80%のユーザーは、こうしたデバイスの有用性に満足しており、デバイスの取得データの安全性を心配する人は、わずか半数程度(41%)だった。
以前も記した通り、このことは、デジタル時代を生きる一人ひとりが考えるべきトレードオフの問題であり、答えに正しいも間違いもない。しかし、告知が行われた場合と非告知の場合があり、バーチャルアシスタントに与えたデータの使途について、今回の調査回答者がしかるべき検討や判断を行ったとは考えにくい。
データが一度でもアルゴリズムに入れられると、所有権の連鎖は破壊され、コントロールを失ってしまう。特に子どもにとっては不当な負担であり、潜在的なセキュリティリスクでもある。
データの収集元の企業やデータを分析、活用するアルゴリズムを信頼している場合でも、ハッカーがデータへアクセスする可能性がある。悪意あるハッカー集団がクレジットカード番号やID情報を欲しがることは理解できるものの、われわれの行動や生体データなどの機密情報に関する人工知能(AI)の分析が悪用されることで、どのような被害が発生するのかは、よく分かっていない。
国家主体の場合、機密情報の窃盗や選挙への干渉、政府高官の脅迫などにこうしたデータを悪用することが考えられる。抑圧的な国家はすでに、反体制派グループなどを標的とし、高度なハッキングツールを使用している。
AIに提供される個人情報
デジタルアシスタントを警戒することには、直接的な理由が存在し続けている。彼らのビジネスモデルは、精度とインテリジェンスの継続的な改善に依存している。提供されるデータは、機械の学習アルゴリズムに組み込まれることで、AIは過去の間違いを回避し、より良い予測を行うことができる。この循環ループの中で、消費者はテクノロジーの恩恵を受けつつ、改善の材料を提供し続けるのである。