海外コメンタリー

活用広がるAIと「ブラックボックス」の実情(前編)

Charles McLellan (ZDNet UK) 翻訳校正: 村上雅章 野崎裕子

2016-12-09 06:45

 人工知能(AI)のアルゴリズムは、われわれの日々の生活に影響を与えるようになってきているが、その内部動作が不透明な場合もしばしばある。本記事では、そのような不透明さが生み出される理由と、解決に向けた取り組みについて解説する。


提供:Getty Images/iStockphoto

 ニューラルネットワークや機械学習システム、予測分析、音声認識、自然言語理解のほか、広い意味でAIに分類されるさまざまなものごとが今ブームとなっている。研究は長足の進歩を遂げており、メディアの注目度もかつてないほど高く、企業は自動化による効率の向上を目指してAIソリューションの実現に取り組んでいる。

 最初にはっきりさせておきたいが、本記事で扱うAIは人間レベルのAI、しばしば「強いAI」や「汎用人工知能」(AGI)と呼ばれるものではない。AIの研究者であるVincent C. Müller氏とNick Bostrom氏によって2012〜2013年に実施された4つの専門家グループに対する調査では、AGIが2040〜2050年に実現する可能性は50%である一方、2075年までに実現する可能性は90%にまで及んでいる。さらにBostrom氏が「事実上、あらゆる問題領域において人間の認知能力を大きく上回る知性」と定義する「Superintelligence」(超知性)はAGIの実現後30年程度で実現すると考えられている(「Fundamental Issues of Artificial Intelligence」第33章)。いつかはこうした知性が実現するため、熟考が必要となるのは明らかだが、今起こっているのはそういったものではない。

 今、急速に起こっているのは、職場や家庭、世界各地で日々の生活に大きな影響を与える、ありとあらゆるプロセスにAIアルゴリズムが組み込まれていくという流れだ。AIテクノロジはGartnerの提唱するハイプサイクルの「流行期(過剰期待の頂)」に近づきつつあるが、失速する可能性もある。AIアルゴリズムの多くは、企業のプロプライエタリな資産であるが故に、あるいはそれ自体が不透明さという性質を持っているが故に、オープンなかたちで検証されていない。

 こういった懸念に対して適切に取り組まなければ、AIへの過剰な期待に対する大きな反動(ハイプサイクルにおける「幻滅期(幻滅のくぼ地)」)につながる可能性もある。


多くのAI関連技術がGartnerのハイプサイクルにおける「過剰期待の頂」に近づきつつある、あるいは既に到達しており、その先には反動による「幻滅のくぼ地」が待ち構えている。
提供:Gartner/注釈:米ZDNet

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

自社にとって最大のセキュリティ脅威は何ですか

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]