最高AI責任者が備えるべき2つ目の分野はデータです。これについては、既に議論しました。
ただし、取り組みを始めた時に最初に問題になるのは、多くの場合、各部門にサイロ化されているデータでしょう。そういったデータは、それぞれの部門に貯め込まれており、1つにまとめるのは困難です。これまで、組織横断的にデータのガバナンスを行うという視点はありませんでした。わが社が関わっている企業の多くは、この問題にさまざまなやり方でアプローチしています。その組織のアプローチによって、最高データ責任者や最高AI責任者を設ける場合もありますし、データ源をまとめる方法も、管理する方法もさまざまです。アプローチに違いがあるのは、AIは企業全体に関わるものであり、その観点から考えていく必要があるからです。
人材とデータに続く、3つ目の役割について説明しましょう。3つめの大きなカテゴリは、「責任あるAI」です。私の考えでは、すべての企業はこの問題に備える必要があります。最近、一部のテクノロジ企業に関するニュースの見出しをこの種の議論が飾ることが多いですが、これは、企業が責任あるAIの問題についてもっと考える必要があることを象徴しています。
私は企業の責任を、次のように説明しています。
- 説明責任。機械にどこまでを任せ、どこに人間を介入させるかについて考える必要があります。機械を信頼して任せられる部分は少ないでしょうから、人間レベルで説明責任を担保することを考える必要があります。
- 透明性。これも説明可能性に関わる問題です。人間が理由を知らないまま、意思決定を機械に任せられるのはどこまでか?これは大きなトピックであり、関心があるのであれば、もっと話をすることもできます。
- 公正性。データの偏りは大きな問題であり、いくつか例を挙げることもできます。データの偏りが企業を危険にさらした例や、消費者を危険にさらした例も、いくつか公になっています。これは許されません。われわれは、公正性を確保しなければなりません。
- 誠実さ。例えば自動運転車は、制限速度に従わなければなりません。自動運転車はおそらく、通行帯や警察の場所などを簡単に検知することができ、簡単にルールを誤魔化すこともできるでしょうが、そうすべきではありません。AIシステムの設計は誠実であるべきで、社会で決められているルールを守る必要があります。
SF作家のIsaac Asimov氏は、ロボットの安全性を確保するための仕組みとして、ロボット工学の3原則を考案しました。ここに掲げたのは、それと同じように、企業がAIに向けて備える際に検討する必要がある、責任あるAIの4原則とでも言うべきものです。最高AI責任者を設けるかどうかに関わらず、組織の役員レベルの誰かが、こういった問題について考え、説明責任を負う必要があります。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。