データセットを継続的に監視する:「既存のデータセットがバイアスを生み出したり、既存のバイアスを増大させないように注力する必要がある。例えば、既存のAIツールを使用したり、データセットにおける特定の統計的パターンをチェックして、データセット内にある既存のバイアスを洗い出すことになる」。これには「アルゴリズムの開発前に、データセット中の既存のバイアスを洗い出し、修正するためのシステムの調査や配備」や「既存のバイアスを洗い出し、正規化し、低減するための、リリース前の十分なトライアルや、リリース後の監視の実施」も含まれている。
AI上での倫理の実現に向け、テクノロジーツールを使用する:「AIを実装する人々の前に立ちはだかる問題の1つに、ディープラーニング(DL)やニューラルネットワーク(NN)の持つブラックボックス的な性質がある。これにより透明性の確保やバイアスのチェックが難しくなる」。この問題への取り組みを支援するためのテクノロジーを配備したり、プラットフォームを構築する企業が増えてきている。Thieullent氏と共著者らは、「IBM AI OpenScale」や、オープンソースのツール、透明性の確保やバイアスの洗い出しの強化に向けたAI新興企業によるソリューションなど、市場における有望な開発例を挙げている。
AIシステムにおける倫理の統制構造を作り出すとともにアカウンタビリティーを保証する:「明確な役割と構造を作り出し、鍵となる人々やチームに対して倫理的なAIのアカウンタビリティーを割り当て、権限を与える」これは「既存の統制構造を改修し、特定チーム内でのアカウンタビリティーを作り出す」ことで実現できる。「例えば、組織における既存の倫理責任者(例えば、最高倫理責任者)に対して、AIにおける倫理的懸念の検証責任をも含めて任せることが考えられる」という。
また、「AIにおける倫理的な疑問に対する説明責任を持つ上級リーダー」を割り当てておくことも重要だ。Thieullent氏とCapgeminiのチームは、「AIの倫理的な配備に責任を持つ独立した委員会を組織の内外に設立することで、早急なAI配備に向けたプレッシャーを与えないようにする」ことも推奨している。
多様性のあるチームを構築し、倫理的な懸念について全方位的な感性を確実なものにする:「多様性のあるチームを巻き込むことが重要だ。例えば、組織は(性別や人種という観点での)多様性を強化したデータチームを作り出す必要があるだけでなく、AIの設計中にさらなる観点を提供できる社会学者や行動学者、UI/UXデザイナーによる学際的なチームを積極的に作り出す必要がある」
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。