新技術がもたらすのは期待だけではない。そのシステムやサービスが人に与える影響に対する「恐怖」も運んでくる。クラウドコンピューティングやソーシャルメディアといった重要な分野では、規制当局がイノベーションを生み出すIT企業やそれを活用しようとする企業に追いつかなければならないと、懸命になっているように感じられることも多い。
人工知能(AI)は他のどんな技術よりも、そうした「恐怖」が問題になる分野だと言えるかもしれない。一部の専門家は、AIは人間が便利に使えるだけの技術ではなく、職場や家庭における人間の意思決定を肩代わりできる可能性を持っていると考えている。では企業が、そうした恐怖感を和らげ、ビッグデータを倫理的に利用したAIシステムを作るにはどうすればいいのだろうか。
コンサルティング企業Consciously Digitalの創業者Anastasia Dedyukhina氏は、企業のAI導入ペースは今後も加速していくが、この技術に関わるさまざまな基本事項が、まだ不透明な状態に置かれていると考えている。AIの利用による影響が大きい顧客ほど、AIが与える影響の全体像を理解できていないと同氏は言う。
Dedyukhina氏は「機械が人間の代わりに意思決定を行う機会は増えており、これには健康保険にはいくら支払うべきかといった問題から、誰を人生のパートナーにすべきかといったことまで、あらゆるものが含まれている」と述べ、次のように続けた。「技術が人間の生活のますます多くの側面に関わるようになっており、われわれはこの問題に対して発言していく必要がある。AIを利用すると何が起きるのか、AIとは何なのか、人間とコンピュータはどう違うのかを人々が理解できるようにしなくてはならない」
最近ロンドンで開催されたイベント「Big Data World」でAIの倫理をテーマとしたパネルディスカッションに参加した同氏は、企業は人々がAIへの理解を深める手助けをする必要があると語った。AIを使ったプロジェクトを進めている企業の経営陣は、情報を収集している理由と、そのプロセスが顧客に与える影響について、常に考えなければならないという。
「倫理的なデータの収集方法とは、実際に顧客体験を改善できる形でデータを収集し、なぜそのデータを収集しているかを顧客に説明することだ」と同氏は言う。「その次のステップは、顧客が望めば簡単にデータ収集からオプトアウトできるようにすることだ。その手順をあまり複雑にすべきではない。コントロールの権利は顧客の手に返すべきだ」