Salesforceが開発者教育プラットフォームの「Trailhead」に、責任ある人工知能(AI)を構築するスキルを向上させるためのモジュール「Responsible Creation of Artificial Intelligence」を加えている。
ローコード開発ツールにより、今後アルゴリズムを作ることができる技術とビジネスのプロフェッショナルが増えることが予想される。そして、責任ある形で行う手段を把握することが必要になる。
AIと倫理、バイアス(偏見)、透明性はテック業界で注目を集めるトピックとなっており、主要なベンダーがこの問題に取り組んでいる。最大の懸念は、各アルゴリズムそのものは偏見を持っていないかもしれないが、他のモデルと組み合わせると偏見が入るという点だ。
Salesforceで倫理的AI実践のアーキテクトを務めるKathy Baxter氏は、Trailheadモジュールは「Einstein」を活用するとともに、さまざまなモデルを利用する従業員や顧客、パートナー企業に対応するものとなっていると説明する。
Trailheadのモジュールは、Salesforceのエコシステムについて教育するほか、Einsteinに組み込まれる将来の機能について示すものとなっている。Einsteinにはすでにいくつかのバイアス対策ツールが組み込まれており、パイロット版ではさらに用意されている。「顧客がモデルの中に何があるのかを理解し、何が行われているのかを説明し、どのように機能しているのかを伝えられるようにしようとしている」とBaxter氏は述べる。
Baxter氏によると、今後TrailheadではAIの倫理と偏見を抑えることにフォーカスした機能を加えていくという。
偏見はAIにおける重要なコンセプトで、一部の識者はさらなるセルフガバナンスや規制を求めている。これに加えて、IBMなどの企業は透明性を高める取り組みを進めており、AIのバイアスを検出するツールを提供する動きもある。また、説明可能なAIを追求する取り組みもある。例えばGoogleは、「TCAV」という技術で、AIや機械学習モデルのバイアスに対応するとしている。
Baxter氏は次のように説明している。
AIを利用する手段が広がりを見せ、その影響の深さが表面化し始めている中、われわれはAIの未来を、責任のある、説明可能な、そして公正なものとすること、そして技術トレーニングを受けた経験やAIの専門知識がない人が構築する場合でもそれを保証する手段について新たな問題に直面している。AIによる成果が、人々や社会にもたらす可能性のある波及効果について、それが意図したものであるかどうかということにかかわらず、AIを構築する誰もが考えることが重要だ。責任あるAIのソリューションを構築する第一歩は、モデルとトレーニングデータに存在しうるバイアスを把握することであり、そのこと自体が大きな課題だ。
Responsible Creation of Artificial Intelligenceによって、ユーザーは倫理的、人間的なテクノロジーの利用を追求したり、AIを理解し、AIにおける偏見を認識したりできるようになる。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。