GoogleとAlphabetの最高経営責任者(CEO)を務めるSundar Pichai氏は、ディープフェイクや顔認証といったツールがもたらしうる悪影響を防ぐためには、人工知能(AI)を規制すべきだと確信している。Financial Timesの1月20日付の論説記事で、同氏はこのような見解を示した。
Sundar Pichai氏
提供:James Martin/CNET
「AIに規制が必要なことについて、疑問の余地はないと考えている。あまりに重要性が高く、規制しないわけにはいかない。唯一の問題は、どのように規制するかだ」とPichai氏は述べた。
とはいえ、このGoogleトップの頭の中には、この問題への答えがいくつかすでに用意されているようだ。Pichai氏は提案として、国際的に協調すること、「中心的価値観」に関して合意を形成すること、(Googleがすでに開発を進めているような)オープンソースツールを利用して文書化された原則の順守状況を検査すること、欧州連合(EU)の一般データ保護規則(GDPR)といった既存の規制を基に、より大きな規制の枠組みを構築することなどを挙げている。
Pichai氏の論説記事と時を同じくして、GoogleはAI分野における自社の取り組みの一部成果を発表し、開発したツールを世界に公開することで、AIを大きく後押ししようとしている。2020年代に入ってまだ数週間だが、Googleはすでに、人間が見落とすような乳がんを発見するAIなど、複数のブレイクスルーを発表している。
GoogleはAIの研究開発を推進しているため、Pichai氏がAIの倫理と規制を巡る議論にスポットを当てるのは驚きではない。AIツールの開発と実装を今まさに進めているGoogleにとって、後回しにできる議論ではないのだ。
Pichai氏は、「道義に基づくアプローチでAIを応用する」必要が自社にあることを明確にする一方で、Googleの「専門知識と経験とツール」を通じて、社外にも支援を提供したい考えを示している。Pichai氏が内側から見ているリスクは、広範囲にわたって存在することになるだろう。「どのようなことが間違いにつながるかを、はっきり見極める必要がある」と同氏は述べた。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。