海外コメンタリー

殺人AIなどナンセンス--マイクロソフト研究者が憂う「別の問題」とは - (page 2)

Nick Heath (TechRepublic) 翻訳校正: 石橋啓一郎

2016-05-04 06:00

現在のAIに心配すべきことは

 AI研究者たちは、今日の限定的なAIシステムが人類の直接的な脅威にはなることはないが、その判断を妄信すべきではないと考えている。

 「AIには危険やリスクがある」とBishop氏は述べている。

 「それは、レーザーで人間を追いかけ回す殺人ロボットが出現するといったものではなく、もっと現実的なものだ」(Bishop氏)

 近年の機械学習を支えている多層構造ニューラルネットワークによる深層学習は極めて複雑で、システムがある結論に至った理由を人間が正確に理解することは不可能だ。

 ニューラルネットネットワークの不透明さは、システムがトレーニングに利用した大量のデータに起因した、未知のバイアスが存在する可能性を高めることになる。

 「システムは、大量のデータを調べることによって、答えを導き出す方法を学んでいる。その答えが概ねよいものでなければ、われわれがそれを使うことはないだろう。しかし、機械の判断に微妙なバイアスが含まれている可能性はある」とBishop氏は言う。

 「多層構造のニューラルネットワークの中身を解明し、人間に分かる形で本当に理解することは不可能だ。それには複雑すぎる」

 これは、機械学習システムがどのようにトレーニングされ、どのように使われるかについて、しっかり検証することが重要であることを示している。同氏は、次のような質問を問いかけることが必要だと述べている。「データはどのようなものか、誰がデータをコントロールしているか、どのようにデータが使われているのか。これらのことについてよく検討する必要がある。これは現在すでに重要な問題であり、殺人ロボットの登場よりも、こちらを気に掛けるべきだ」

この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]