Googleは、AIの倫理的な影響について議論するために、「Advanced Technology External Advisory Council」(ATEAC)と呼ばれる諮問委員会まで設置した。ただし、同社の期待にも関わらず、ATEACは設置からわずか数週間後に解散している。
倫理性を高めることに熱心なのは、Pichai氏だけではない。実際、ほとんどの大手IT企業は何らかの取り組みを行っている。Apple、Microsoft、Facebook、Amazonなどをはじめとする多くの企業が、AIシステムを導入する際に、何らかの形で人権に配慮していると言っていいだろう。
しかし、一部の専門家は、大手IT企業の取り組みは少し遅すぎると考えている。Data & Societyの研究者らは、「企業の論理」に関するある論文の中で、「現在のシリコンバレー企業では、倫理統括責任者(ethics owner)に権限を与えるのがトレンドになっているが、この取り組みの元をたどれば、近年のIT業界を騒がせた一連のトラブルにたどり着く」と述べている。
Googleの「Project Maven」で起きた大失敗は、この問題の複雑さを示す一例だ。同社は2年前、ドローンの映像分析機能を改善するAIを組み込んだソフトウェアを米国防総省に売ろうとした。しかしこの話題が明るみに出ると、直ちに同社のスタッフ4000人が契約の破棄を求める意見を表明し、数十人の従業員が退職した。自分たちの仕事の成果が、そのような形で使われるかもしれない状況を認められなかったからだ。
その結果Googleは、国防総省との契約を更新しないと発表し、兵器やその他の人を傷つけることを目的とした技術のために、AIを設計したり、展開したりしないことを宣言した一連の原則を公開することになった。
しかし、シカゴ大学のBen Zhao氏は、IT業界に理解を示す余地があると考えている。同氏は、「IT企業は確かに、被害が実際に起こってしまってから、自分たちの倫理的な問題を修正しようとしているように見える」と認める一方で、「しかし私は、その被害は必ずしも意図的に引き起こされたものではないと思う。むしろ、テクノロジーがこれまでに経験のない規模で導入されることで、潜在的なリスクが生じることを認識できていなかったために起こったと考えられる」と述べている。
もちろんGoogleは、AIを組み込んだシステムを国防総省に売ることで意図せずして起こした問題を、予見して然るべきだっただろう。しかし例えば、オブジェクト認識アルゴリズムを設計している普通のエンジニアは、その技術が悪人の手に落ちたときどんな問題が起きるかということについて、あらゆる可能性を考えられるような訓練は受けていない。
そのような結果を予測し、その責任を負うことは、IT業界のほとんどの人にとって、これまでになかった要求だ。Zhao氏は、この概念はシリコンバレーにとって「非常に新しい」ものであり、これまでは倫理が議論になったことほとんどなかったと断言する。