研究者らは、人工知能(AI)のアルゴリズムに存在するバイアスを見つけるための方法を、情報セキュリティの分野から学ぼうとしている。特に注目されているのは、ソフトウェアのコードをくまなく調べて潜在的なセキュリティの脆弱性を発見し、バグ報奨金を受け取ることを狙うハッカーたちだ。
提供:Getty Images/iStockphoto
アルゴリズムの問題やAIのアカウンタビリティーに取り組むMozilla FoundationのリサーチフェローDeborah Raji氏が行っている研究は、こうしたセキュリティ研究者の取り組みと、AIモデルに存在する潜在的な問題を見つける取り組みとの類似性に焦点を当てたものだ。
Raji氏は、2021年の「Mozilla Festival」で、AIの社会的影響などを研究し、啓蒙する非営利団体Algorithmic Justice League(AJL)と共同で進めている研究について発表した。Raji氏らは、バグ報奨金制度について調べ、その仕組みを違う種類の問題の発見に応用できないか検討している。その問題とはAIアルゴリズムに存在するバイアスだ。
バグ報奨金制度は、悪意を持ったアクターがソフトウェアのコードに存在する脆弱性を悪用する前に、そのバグを見つけたハッカーに報奨金を提供する制度であり、この仕組みは情報セキュリティ分野になくてはならないものになっている。Google、Facebook、Microsoftなどの大手企業は、いずれもバグ報奨金制度を持っている。参加するハッカーの数は増えており、ソフトウェアの問題を悪意のあるハッカーに見つけられる前に修正するために、企業が支払う金銭報酬も増えてきている。
「リリースしたソフトウェアにハッキングに使われる可能性のある脆弱性が存在した場合に備え、情報セキュリティコミュニティは、それらのバグを発見するためのさまざまな道具を発展させてきた」とRaji氏は述べた。「私たちは、こうした懸念はアルゴリズムのバイアス問題に関することと類似したものだと考えている」
Raji氏は、「CRASH」(Community Reporting of Algorithmic System Harms)と呼ばれるプロジェクトの一環として、情報セキュリティの分野でバグ報奨金制度がどのように機能しているかを調べ、同じモデルをAIのバイアスを発見するために応用できないかということを検討している。
AIのシステムは日に日に高度になっており、広く使われるようになっているが、今のところアルゴリズムのバイアスをチェックする最善の方法についての共通見解は存在しない。欠陥のあるAIモデルは破滅的な影響を及ぼす可能性があるが、これまでは、お互いにつながりのない専門組織や独立した専門家が、個別に調査を行って問題を明らかにしてきただけだった。