これまでに発表されたほとんどのガイドラインは、専門家から(慎重ではあるが)前向きな評価を受けている一方で、提案されたルールには具体性が欠けていると指摘されることも多い。実際、英国の独立委員会が最近発表した報告書では、公的部門へのAI導入に関して、政府が実用的な指針と強制力のある規制を設ける「差し迫った必要性」があると述べている。
AIの倫理について多数の文書が発表されている一方で、AIに関する英国議員連盟のアドバイザーであるChristian de Vartavan氏は、米ZDNetの取材に対して、各国政府はこの問題についていくのに苦労していると述べた。「その理由は、この問題がまだ初期段階にある上に、テクノロジーの発展があまりにも速く、私たちは常にそれを追いかける形になるためだ。常に新しい発見があるため、それに追いつくことは不可能だ」と同氏は言う。
事実上、これまでに公表されたすべてのフレームワークは、開発者がAIシステムを開発する際に念頭に置いておくべき一般的な価値観を示すものだ。これらの価値観は人権に基づいたものが多く、通常は公平性、差別の排除、アルゴリズムの意思決定に関する透明性、作った人間が作ったものに対する責任を負うなどの内容が含まれている。
重要なのは、ほとんどのガイドラインが、新しいツールのコンセプトを作る最初の段階から、実装や商用化に至るまで、開発のあらゆる段階で倫理的な影響について検討することを求めている点だ。
この「設計による倫理(Ethics by Design)」の原則は、責任の問題と密接に関連しており、大まかに言えば「開発者は十分に注意しろ」と言い換えることもできる。つまり、プログラムがユーザーに害を及ぼさないようにする責任は、開発チームが負うことになったということだ。そして、それを確実にするには、開発の最初の段階からAIの倫理に取り組む以外にない。
設計による倫理という考え方の問題は、これまでの技術は、必ずしも倫理を念頭に設計されていたわけではなかったということだ。計算機科学が専門のシカゴ大学教授、Ben Zhao氏は、「これはもちろん素晴らしいことだが、あまり現実的ではない」と話す。「バイアスのような一部の要因については低レベルの設計の段階で検討可能だが、AIの大部分は倫理とは無関係だ」
大手IT企業はこの問題に気づいており、AIの倫理に多くの時間と資金を投じている。Googleの最高経営責任者(CEO)Sundar Pichai氏は、同社の倫理的なAIに対する取り組みについて、公の場で何度も発言しており、同社はAIの公平性をテストするためのオープンソースツールも公開している。また同社は、広告主がユーザー個人の詳しい情報にアクセスしなくてもターゲット型広告を表示できるようにするオープンなウェブ技術である、「Privacy Sandbox」も提案した。