松岡功の一言もの申す

広く使われ始めたAIに問題が発生したら責任は誰にあるのか

松岡功

2022-06-16 11:41

 デジタル化の進展と共に至る所で使われるようになってきた人工知能(AI)技術だが、もし学習データの偏りによる誤った判断や動作などの問題が起きて被害が出た場合、その責任は誰にあるのか。日本IBMと国立情報学研究所(以下、NII)でそうした話を聞く機会を得たので、その内容を紹介して考察したい。

日本IBMのAIエキスパートの見解は…

 日本IBMが先頃発表したAI倫理に関する調査結果(速報記事参照)によると、企業においてのAI倫理の責任は、もはや技術系のリーダーが担うのではなく経営層が担うべきという結果が出るなど、AIのビジネス導入が進展する中でAI倫理がより重要な経営課題として認識されるようになってきたことが明らかになった。

 AI倫理とは、AIが人や社会に悪影響を与えないようにするための規範を指す。学習データの偏りから誤った判断や動作が起きるのを防ぐのが狙いだ。ここにきてAIを使う企業をはじめ、国家や国際機関でもAI倫理における指針を相次いで打ち出している。

 だが、気がかりなのは、実際にAIによる誤った判断や動作によって問題が起きて被害が出た場合、その責任は誰にあるのか、だ。上記の調査結果からすると、AIを使う企業の経営責任とも受け取れる。

日本IBMの執行役員兼技術理事でIBM AIセンター長を務める山田敦氏
日本IBMの執行役員兼技術理事でIBM AIセンター長を務める山田敦氏

 そこで、調査結果を発表した日本IBMの執行役員 兼 技術理事でIBM AIセンター長を務める山田敦氏に会見の質疑応答で、責任の所在について「AIを使っている企業にあるという認識でよいか。そのAIシステムを開発して企業に提供したベンダーに責任はないのか」と聞いてみた。すると、同氏は次のように答えた。

 「必ずしもAIを使っている企業だけに責任があるわけではないと考えている。現在、企業で使われているAIシステムには複数のプレーヤーが関わっており、それぞれに責任の一端があるとも言える。したがって、特にユーザー企業とベンダーの間ではAIについてのそれぞれの責任の範囲を契約の中であらかじめ明確にしておくことが非常に大事になる」

 その責任の範囲をどのように取り決めていくかについては、例えば、経済産業省が策定したAIガバナンスのガイドラインなどを参考にしてほしいとのことだ。

 しかし、学習データの偏りが故意によるものであれば、責任の所在は明らかだが、データが偏っているのかどうかも分からず、アルゴリズムも不透明な中では、予期せぬ問題が起きることが今後十分に考えられる。そうした場合の責任の所在はどうなるのか。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]