Googleが掲げるテクノロジーに対する責任ある取り組みや、Microsoftの「倫理的で信頼できるAI」のためのガイドラインなどを見ても分かるように、最近では、大手IT企業がデジタル倫理に取り組むのは当然のことになってきている。
「倫理的なフレームワーク」や「責任あるイノベーション」といったコンセプトは曖昧なものに見えるかもしれないが、中小企業に対しても、テクノロジーの倫理的な利用が求められるようになってきた。
英国個人情報保護監督機関(ICO)のエグゼクティブディレクターSimon McDougall氏は、ロンドンで開催されたあるカンファレンスで、「デジタル倫理は、検討できるだけのリソースを持つ組織以外にも広まらなくてはならず、小規模企業が抱えている現実にも切り込んでいく必要がある」と述べている。
それが難しいのは、「倫理的な技術」のコンセプトが、まだ会議室で議論されている抽象的な概念にとどまっているためだ。McDougall氏は、議論はもっと「運用のためのもの」になるべきだと話す。
英国では、イノベーションの責任ある展開のために、さまざまな政府機関がガイドラインやフレームワークを提供している。
たとえばAI庁(Office for Artificial Intelligence:OAI)は、公平性、説明責任、持続可能性、透明性の4つの原則について詳しく説明している。また、データ倫理・イノベーションセンターは、ターゲティング広告や警察のアルゴリズム利用など、さまざまなテーマについてのレポートを定期的に公表している。
リソースを十分に持っている大手IT企業は、デジタル倫理を守るための取り組みを顕示するようになった。たとえば、Appleは最近、プライバシーページを刷新したが、これは同社が長年主導してきた、デジタルプライバシーをめぐる聖戦を続けるための一手だ。
またIntelの「人権の原則」には、「インテル製品がビジネスパートナーによって人権侵害に関して使用されているという懸念がある」ことが明らかになった場合、契約を拒否すると宣言している部分がある。
ほかにも英国の保険会社Avivaは最近、顧客情報の取り扱いに関する宣言を1ページにまとめて公開し、個人情報の取り扱いについて説明する短い動画も掲載した。同社のチーフデータサイエンティストOrlando Machado氏は、これは「誰も読まない長いプライバシーポリシーの代わり」だと話している。