ライブパーソンジャパンは6月25日、人工知能(AI)と倫理に関する日本企業の意識・実態調査の結果を発表した。米本社LivePersonがアジア太平洋日本(APJ)地域のITやカスタマーエクスペリエンス、デジタルの各部門の意思決定者2500人(うち500人は日本企業)を対象にしたアンケート調査によれば、AIを幅広く使用していると回答した、日本企業のビジネスリーダーはシンガポールの半分、中国の3分の1にあたる8%となっている。
限定的にAIを採用しているのは23%。導入中と回答したのは16%。計画中と回答したのは23%。使用していないと回答したのは29%。このようにビジネスにおけるAI活用が広まりつつあるなか、AIの運用ガイドラインを定めている日本企業は5社中2社にとどまるという。
LivePerson創業者で最高経営責任者(CEO)のRobert LoCascio(ロバート・ロカシオ)氏は「AIは企業やコミュニティーにメリットを与える存在だ。われわれはAI技術を展開する上で責任を負わなければならない」と述べつつ、AIの説明責任や倫理基準を誰が担うかという調査結果を説明した。

LivePerson 創業者兼CEO Robert LoCascio氏
AIによって消費者に害が及んだ場合、誰が説明帰任を追うべきかとの問いには、AIを配備した企業、AIを開発した企業と回答した割合がともに34%。AIを配備した企業の経営陣と回答した割合は33%だった。誰がAI倫理基準の設定と実施を担うべきかの問いには、32%がAIシステムを利用している個々の企業と回答した。
現在、日本政府の内閣府も「人間中心のAI社会原則検討会議」を続けており、欧州委員会も4月にAI倫理ガイドラインを発表し、世界中でAIの倫理に関する議論が進んでいる。このような社会背景が今回の回答に影響を及ぼしたようだ。
企業のAI活用に伴う懸念事項としては、データに不正アクセスする可能性(85%)、AIテクノロジーが犯罪者に利用される可能性(82%)、消費者が誤った製品やサービスに誘導される可能性(78%)、意思決定の方法が不透明(77%)、社会の各区分が平等にアクセスできない可能性(77%)、プライバシーの欠如(76%)が並ぶ。
これらの懸念に対する対処法としては、社員向け倫理トレーニング(23%)、リスクアセスメントの実施(23%)、監視や改善システムの導入(20%)、業界基準の恒久的な確認(20%)、回復メカニズムの設定(19%)、内部・外部調査の実施(19%)が並んだ。
LoCascio氏は「アルゴリズムには人種や性別といったバイアスがかかるため、多様性を持たせた上で実装すべき」と提言する。
LivePersonはAIの倫理的枠組みを構築する上で(1)純利益を生み出す、(2)害をもたらさない、(3)規制/法的準拠、(4)プライバシー保護、(5)公平性、(6)透明性と説明可能性、(7)競争力、(8)説明責任――の8つを掲げた。同社はAIのガイドラインの作成や標準化、前述した枠組みを実現するために「Equal AI」という非営利団体を2018年6月に設立している。
AI倫理団体としては、MicrosoftやAmazon、Googleなど大手IT企業が参画する「Partnership on AI」が2016年9月に設立しており、記者からEqual AIを設立した理由を尋ねられると、「GoogleはAI倫理諮問委員会を解散した。われわれはスイス(のように永世中立国)のような企業なので、彼らとも協調したい」(LoCascio氏)と語った。

ライブパーソンジャパン 代表取締役 金田博之氏
日本法人であるライブパーソンジャパンは、「LivePersonカンバセーショナル・コーマス・プラットフォーム」(対話型商取引プラットフォーム)を武器に国内でビジネス展開を続けている。とある事例では、「メールや電話の問い合わせをモバイルアプリケーションに移行したことで、サービス開始120日後には問い合わせ総数の40%がメッセージングに移行し、効率は電話対応時に比べて2.5倍に向上。顧客満足度スコアも電話対応時の70から90まで改善した」(ライブパーソンジャパン 代表取締役 金田博之氏)と説明する。
さらに自社ソリューションとAIボットによる自動化で「50%の自動化が可能。企業と消費者におけるコミュニケーションの変化は日本でも起きている。2017年度から2018年は2倍の成長率。組織倍増で体制強化を図る」(金田氏)とビジネスが堅調であるとアピールした。