現在のAIに心配すべきことは
AI研究者たちは、今日の限定的なAIシステムが人類の直接的な脅威にはなることはないが、その判断を妄信すべきではないと考えている。
「AIには危険やリスクがある」とBishop氏は述べている。
「それは、レーザーで人間を追いかけ回す殺人ロボットが出現するといったものではなく、もっと現実的なものだ」(Bishop氏)
近年の機械学習を支えている多層構造ニューラルネットワークによる深層学習は極めて複雑で、システムがある結論に至った理由を人間が正確に理解することは不可能だ。
ニューラルネットネットワークの不透明さは、システムがトレーニングに利用した大量のデータに起因した、未知のバイアスが存在する可能性を高めることになる。
「システムは、大量のデータを調べることによって、答えを導き出す方法を学んでいる。その答えが概ねよいものでなければ、われわれがそれを使うことはないだろう。しかし、機械の判断に微妙なバイアスが含まれている可能性はある」とBishop氏は言う。
「多層構造のニューラルネットワークの中身を解明し、人間に分かる形で本当に理解することは不可能だ。それには複雑すぎる」
これは、機械学習システムがどのようにトレーニングされ、どのように使われるかについて、しっかり検証することが重要であることを示している。同氏は、次のような質問を問いかけることが必要だと述べている。「データはどのようなものか、誰がデータをコントロールしているか、どのようにデータが使われているのか。これらのことについてよく検討する必要がある。これは現在すでに重要な問題であり、殺人ロボットの登場よりも、こちらを気に掛けるべきだ」
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。