MITの2016年、画で見る革新的なプロジェクト--折り紙ロボットにサイバー攻撃検知も - 7/9

Charlie Osborne (Special to ZDNET.com) 翻訳校正: 石橋啓一郎

2016-12-29 07:00

判断の根拠を説明するAI

 MITの研究者は、ニューラルネットワークを使ってAIシステムに自らの判断の内容を説明させる新たな技術を発表した。ニューラルネットワークは事実上「ブラックボックス」となっている。この技術はAIモデルのさらなる進展をもたらす可能性があり、人工知能と機械学習の重要なブレークスルーとなる可能性がある。

判断の根拠を説明するAI

 MITの研究者は、ニューラルネットワークを使ってAIシステムに自らの判断の内容を説明させる新たな技術を発表した。ニューラルネットワークは事実上「ブラックボックス」となっている。この技術はAIモデルのさらなる進展をもたらす可能性があり、人工知能と機械学習の重要なブレークスルーとなる可能性がある。

提供:Christine Daniloff/MIT

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]