編集部からのお知らせ
特集PDF1「導入期に入るマイクロサービス」
特集PDF2「DXレポート」
海外コメンタリー

セールスフォースのAI倫理担当が語る、AI製品を取り巻く倫理問題

Eileen Yu (ZDNet.com.au) 翻訳校正: 村上雅章 野崎裕子

2022-07-11 06:30

 企業は人工知能(AI)製品の構想や開発を始める際、最初の段階から倫理について考慮しておく必要がある。そうすることで、AIツールをバイアスのない、責任あるものとして実装するための力が得られるはずだ。

 サイバーセキュリティ製品では同様のアプローチが既に必要不可欠なものとして受け入れられている。「セキュリティバイデザイン」(Security by Design)という開発原則によって、リスクの評価とセキュリティ機能を最初から取り込んでおけば、一貫性のない行き当たりばったりでの対応や、後続の工程で発生する高コストな後付け対応を避けられるようになるのだ。

 Salesforceの倫理AIプラクティス担当主席アーキテクトであるKathy Baxter氏は、このような考え方をAI製品の開発にも適用すべき時が来ていると述べ、組織がAI倫理の基本的な開発標準を満たす必要性を強調した。

 同氏によると、サイバーセキュリティ業界は、1980年代にマルウェアが初めて出現して以来、数十年にわたって進化を続けてきているため、そこから学ぶべき教訓は数多くあるという。サイバーセキュリティという分野はそれ以前には存在していなかったものの、企業は自らのシステムを防御する中で、初期段階からリスクを洗い出し、順守すべき基本的な標準や規制を作り出すことに注力し、変化を遂げてきた。

 Baxter氏は米ZDNetとのインタビューの中で、こういった変化の結果、今日あるほとんどの組織は、従業員を含むあらゆる利害関係者が順守すべき基本的なセキュリティ標準を作り出していると述べた。例えばSalesforceでは、新規採用者全員に対して、強力なパスワードの採用やVPNの使用といった、サイバーセキュリティプラクティスに関して同社が要求している物事に関するオリエンテーションの受講を義務付けている。

 同氏は同じことが倫理にも適用されると述べ、社内にはその専任チームが用意されていると付け加えた。

 さらに、タスクやサービスが同社の倫理ガイドラインに基づいており、越えてはならない一線がどこに引かれているのかを従業員が判断できるようにするためのリソースも用意されているとBaxter氏は述べた。例えば、SalesforceのAIを活用した「Einstein Vision」は顔認識に利用してはならないため、営業担当者がそのことを知らずに同製品を販売しようとすると、同社のポリシーに違反することになる。

 同氏はまた、サイバーセキュリティのプラクティスが脅威の変化に応じて定期的に見直され、改定されていくように、AI倫理に関するポリシーも定期的な見直しと改定が必要だと述べた。

 こういったことは、社会や文化が時とともに変化し、10年前に適切だと考えられていた価値が今日における大多数の価値観と一致しなくなる可能性がある点からも重要だと同氏は述べた。AI製品も変化に対応していかなければならないのだ。

ZDNet Japan 記事を毎朝メールでまとめ読み(登録無料)

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNet Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]