AIのガバナンスフレームワークを構築する際には、以下の3つのポイントを考慮する必要がある。1.開発の初期段階から倫理を考慮に入れること。2.監査証跡をしっかりと残すことができる、堅牢で、透明性が高く、説明可能性を備えたシステムを構築すること。その際、学習が進んだモデルも修正可能であることを前提とする。3.ロールアウトは、明確に文書化されたプロセスに基づいて、健全なガバナンスと監督の下で、慎重に監視しながら進めること。
2.文化と人材
AIは、私たちが生涯で経験する技術的な変化の中でも、もっとも革新的なものになるかもしれないほどの技術だが、その実装と導入には、系統だったアプローチが必要だ。それにはまず、文化的な観点から組織の準備を整え、導入に備えてAI教育を効果的に進め(同時に従業員のAIに対する信頼を養い)、必要に応じて技術的なトレーニングを実施する必要がある。
これまでは、ツールに関するトレーニングを1度きりの教育で済ませることが多かった。しかし、そのことが次世代のデータエンジニアの育成を妨げており、現在の深刻な人材不足の一因にもなっている。専門技能やスキルを育て、導入のペースを早めるには、長期間にわたる継続的な教育とトレーニングが必要になる。
解決策は
倫理的なAIの導入に成功するかどうかは、実際に導入するスタッフが、その作業について理解しているか、十分な支援を受けているかにかかっている。それには、AIについて十分な知識を持った、多様性のある労働力を育て、スキルアップと多分野にまたがる学びの機会を与える必要がある。
また、組織の目的を従業員に明確に伝え、AIが職場に与える影響について意見を聞き、それを反映していくことも重要だ。
3.データセキュリティ
AIが運用するデータやシステムは、偶発的な干渉と悪意を持った干渉の両方から保護されていなければならない。世の中には、データに「毒を盛る」ことで、AIの動作を操作しようとする攻撃者が存在する。有名な例としては、「一時停止」の道路標識に少し手を加えただけで、自動運転車がその標識を速度制限の標識と誤認識してしまったという事例がある。AIに作業を任せるには、一定の自律性を期待できると信頼できなくてはならない。それを考えれば、データのセキュリティやプライバシーは極めて現実的な問題だ。