米国商務省に属する米国国立標準技術研究所(NIST)は、策定中の「人工知能(AI)がもたらすリスクを管理する」フレームワークについて、一般から意見や情報を求めている。
NISTが草稿を作成している「AIリスク管理フレームワーク(AI RMF)」は、開発者や評価者などが「AIシステムの信頼性を向上させる」上で役立つよう、任意で利用できるガイダンス文書だ。
NISTは、米国議会やホワイトハウスから、AI向けフレームワークの作成を求められたことを受けてAI RMFを作成しており、今回そのための情報提供を求めている。
商務省のDon Graves副長官は声明で、AI RMFは「新しいAI技術が市場で競争力を発揮できるかどうかに決定的な違いをもたらすだろう」と述べた。
「AIは、私たちの経済、安全、生活の質を前進させることを可能にする広範なイノベーションと新たな機能を実現するということが日々明白になっている。そうしたメリットとともに、AI技術がもたらすリスクを管理できるよう配慮し、準備することが重要だ」とGraves氏は言う。
「このAIリスク管理フレームワークは、AIの設計者、開発者、ユーザーが、そのような全ての要因を考慮できるようにするものだ。それによって、競争が非常に厳しい世界のAI市場で、米国の能力を向上させることができるだろう」(同氏)
さまざまな業界で、AIの使用について、何らかの規制を求める声が高まっている。特に重要かつ慎重な配慮が必要な多数のプロセスに、AIが組み込まれるようになっているためだ。また調査から、何百ものAIシステムには、その作成者が対処できていないバイアスが潜んでいることが明らかになっている。
これまでに、公的機関や民間機関が導入している顔認識ソフトウェアで、AIの使用を中止しようとする動きもある。
NISTのElham Tabassi氏は、AIが社会にとって有益なものとして、最大限の可能性を発揮するには信頼できる技術でなければならないと説明した。Tabassi氏は、連邦政府のAI標準コーディネーターであり、国家AIリサーチリソース(National Artificial Intelligence Research Resource:NAIRR)のメンバーでもある。
「AIに内在するリスクを排除することは不可能かもしれないが、私たちはコンセンサス主導の協業的なプロセスで、この指針となるフレームワークを開発している。幅広い採用を促し、そうしたリスクを最小限に抑えることに期待するためだ」(同氏)
NISTは、AIベースの新しい技術、製品、サービスの開発と利用は、「技術的、社会的な課題とリスク」をもたらすと指摘している。
「NISTは、AIシステムの開発や利用に従事する組織や個人が、AIのリスク全体にどのように対処するか、そうしたリスクを管理するためのフレームワークをどのように構築すべきかについて、意見や情報を求めている」とNISTは声明で述べている。
特に、AIに関連するリスクの管理を向上する上で、開発者が直面している最大の課題について情報を求めている。また、組織が現在、AIの信頼性の特徴をどのように定義し、管理しているのかを理解したいと考えている。さらに、サイバーセキュリティ、プライバシー、安全性を中心とする組織の包括的なリスク管理に、AIリスクがどの程度組み込まれているかについても、情報を求めている。
NISTは米国時間8月19日まで情報の提供を求めている。9月に実施するワークショップで、専門家とともにAI RMFのドラフトを作成する計画だ。
最初のドラフトを公開した後も、NISTは作業を継続し、さらに一般から意見を募集する可能性もある。
ホワイトハウス科学技術政策局で国家AIイニシアチブオフィスのディレクターを務めるLynne Parker氏は、「AI研究者や開発者は、AIテクノロジーを開発する前、開発中、そして開発後にもリスクを考慮する必要がある。このフレームワークは、彼らが取り組むにあたって、情報を提供し、指針となるだろう」と述べた。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。