欧州連合(EU)が、信頼できる倫理的な人工知能(AI)の利用を促進することを想定した倫理ガイドラインを発表している。
EUは現地時間4月8日、開発者が守るべき7つの重要項目を概説したガイドラインを公開した。2018年12月に公表したドラフト案をベースに、寄せられた500件以上のフィードバックを受けて改定されている。
コンピュータビジョン、深層学習、顔認識および物体認識、自然言語処理などは、すべてAIに含められる技術であり、消費者や企業向けのアプリケーションにメリットをもたらす可能性があるが、その他の分野での利用については懸念を引き起こしている事例もある。
Amazonは、法執行機関や政府機関に同社の「Rekognition」プラットフォームを提供していることが非難の的となった。またGoogleの倫理諮問委員会は、選定されたメンバーが物議を醸し、立ち上げて2週間も経たないうちに解散に追いやられた。
さらに、法執行機関や軍隊、政府によるAIの利用は、無人戦争、過度の監視や検閲、犯罪の容疑者認識におけるバイアスを招きかねず、産学の両分野で議論されている。
EUが改定して、公表したガイドラインは、人権を剥奪したり抑圧したりするのではなく、AIを有益に活用することを目指している。その概要は以下の通りだ。
人の監督:AIシステムは、人間の主体性を阻害、制約したり、誤った方向に導いたりするのではなく、人の自主性や基本的な権利を支持して、平等な社会を実現すべきである。
堅固な安全性:信頼できるAIには、AIシステムのライフサイクルを通じて、エラーや矛盾に対応できるだけの安全性、信頼性、堅牢性に優れたアルゴリズムが必要である。
プライバシーとデータのガバナンス:市民が自身のデータを完全に管理できなければならない。また個人に関するデータは、その個人に害を及ぼしたり、個人を差別したりすることに悪用してはならない。
透明性:AIシステムのトレーサビリティを確保する必要がある。
多様性、非差別、公平性:AIシステムは、あらゆる人間の能力、スキル、要件に配慮して、アクセシビリティを保証すべきである。
社会および環境の幸福:AIシステムは、社会に良い変化をもたらし、持続可能性と環境保護責任を強化するために活用されるべきである。
説明責任:AIシステムとその結果に関して、説明責任を明確にする仕組みを整えるべきである。
ガイドラインに法的拘束力はないものの、開発者、学会、人権保護団体、企業によって、妥当だと受け入れられれば、将来EUにおける法律制定の土台となる可能性もあるかもしれない。
2019年後半に関係者を巻き込んだ試験プログラムが開始され、同ガイドラインを精査して、フィードバックを提供するという。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。