海外コメンタリー

AIアルゴリズムのバイアス発見にバグ報奨金のモデルを生かせるか

Daphne Leprince-Ringuet (Special to ZDNET.com) 翻訳校正: 石橋啓一郎

2021-03-24 06:30

 研究者らは、人工知能(AI)のアルゴリズムに存在するバイアスを見つけるための方法を、情報セキュリティの分野から学ぼうとしている。特に注目されているのは、ソフトウェアのコードをくまなく調べて潜在的なセキュリティの脆弱性を発見し、バグ報奨金を受け取ることを狙うハッカーたちだ。

AI
提供:Getty Images/iStockphoto

 アルゴリズムの問題やAIのアカウンタビリティーに取り組むMozilla FoundationのリサーチフェローDeborah Raji氏が行っている研究は、こうしたセキュリティ研究者の取り組みと、AIモデルに存在する潜在的な問題を見つける取り組みとの類似性に焦点を当てたものだ。

 Raji氏は、2021年の「Mozilla Festival」で、AIの社会的影響などを研究し、啓蒙する非営利団体Algorithmic Justice League(AJL)と共同で進めている研究について発表した。Raji氏らは、バグ報奨金制度について調べ、その仕組みを違う種類の問題の発見に応用できないか検討している。その問題とはAIアルゴリズムに存在するバイアスだ。

 バグ報奨金制度は、悪意を持ったアクターがソフトウェアのコードに存在する脆弱性を悪用する前に、そのバグを見つけたハッカーに報奨金を提供する制度であり、この仕組みは情報セキュリティ分野になくてはならないものになっている。Google、Facebook、Microsoftなどの大手企業は、いずれもバグ報奨金制度を持っている。参加するハッカーの数は増えており、ソフトウェアの問題を悪意のあるハッカーに見つけられる前に修正するために、企業が支払う金銭報酬も増えてきている。

 「リリースしたソフトウェアにハッキングに使われる可能性のある脆弱性が存在した場合に備え、情報セキュリティコミュニティは、それらのバグを発見するためのさまざまな道具を発展させてきた」とRaji氏は述べた。「私たちは、こうした懸念はアルゴリズムのバイアス問題に関することと類似したものだと考えている」

 Raji氏は、「CRASH」(Community Reporting of Algorithmic System Harms)と呼ばれるプロジェクトの一環として、情報セキュリティの分野でバグ報奨金制度がどのように機能しているかを調べ、同じモデルをAIのバイアスを発見するために応用できないかということを検討している。

 AIのシステムは日に日に高度になっており、広く使われるようになっているが、今のところアルゴリズムのバイアスをチェックする最善の方法についての共通見解は存在しない。欠陥のあるAIモデルは破滅的な影響を及ぼす可能性があるが、これまでは、お互いにつながりのない専門組織や独立した専門家が、個別に調査を行って問題を明らかにしてきただけだった。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]