海外コメンタリー

AIは"アルファトレンド"--アクセンチュアCTOが語る機械と人の未来 - (page 5)

Michael Krigsman (Special to ZDNET.com) 翻訳校正: 石橋啓一郎

2018-05-18 06:30

 最高AI責任者が備えるべき2つ目の分野はデータです。これについては、既に議論しました。

 ただし、取り組みを始めた時に最初に問題になるのは、多くの場合、各部門にサイロ化されているデータでしょう。そういったデータは、それぞれの部門に貯め込まれており、1つにまとめるのは困難です。これまで、組織横断的にデータのガバナンスを行うという視点はありませんでした。わが社が関わっている企業の多くは、この問題にさまざまなやり方でアプローチしています。その組織のアプローチによって、最高データ責任者や最高AI責任者を設ける場合もありますし、データ源をまとめる方法も、管理する方法もさまざまです。アプローチに違いがあるのは、AIは企業全体に関わるものであり、その観点から考えていく必要があるからです。

 人材とデータに続く、3つ目の役割について説明しましょう。3つめの大きなカテゴリは、「責任あるAI」です。私の考えでは、すべての企業はこの問題に備える必要があります。最近、一部のテクノロジ企業に関するニュースの見出しをこの種の議論が飾ることが多いですが、これは、企業が責任あるAIの問題についてもっと考える必要があることを象徴しています。

 私は企業の責任を、次のように説明しています。

  • 説明責任。機械にどこまでを任せ、どこに人間を介入させるかについて考える必要があります。機械を信頼して任せられる部分は少ないでしょうから、人間レベルで説明責任を担保することを考える必要があります。
  • 透明性。これも説明可能性に関わる問題です。人間が理由を知らないまま、意思決定を機械に任せられるのはどこまでか?これは大きなトピックであり、関心があるのであれば、もっと話をすることもできます。
  • 公正性。データの偏りは大きな問題であり、いくつか例を挙げることもできます。データの偏りが企業を危険にさらした例や、消費者を危険にさらした例も、いくつか公になっています。これは許されません。われわれは、公正性を確保しなければなりません。
  • 誠実さ。例えば自動運転車は、制限速度に従わなければなりません。自動運転車はおそらく、通行帯や警察の場所などを簡単に検知することができ、簡単にルールを誤魔化すこともできるでしょうが、そうすべきではありません。AIシステムの設計は誠実であるべきで、社会で決められているルールを守る必要があります。
  •  SF作家のIsaac Asimov氏は、ロボットの安全性を確保するための仕組みとして、ロボット工学の3原則を考案しました。ここに掲げたのは、それと同じように、企業がAIに向けて備える際に検討する必要がある、責任あるAIの4原則とでも言うべきものです。最高AI責任者を設けるかどうかに関わらず、組織の役員レベルの誰かが、こういった問題について考え、説明責任を負う必要があります。

    この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]