海外コメンタリー

「倫理的なAI」の重要性高まる--開発者にも求められる変化 - (page 2)

Daphne Leprince-Ringuet (Special to ZDNET.com) 翻訳校正: 石橋啓一郎

2020-04-16 06:30

 これまでに発表されたほとんどのガイドラインは、専門家から(慎重ではあるが)前向きな評価を受けている一方で、提案されたルールには具体性が欠けていると指摘されることも多い。実際、英国の独立委員会が最近発表した報告書では、公的部門へのAI導入に関して、政府が実用的な指針と強制力のある規制を設ける「差し迫った必要性」があると述べている。

 AIの倫理について多数の文書が発表されている一方で、AIに関する英国議員連盟のアドバイザーであるChristian de Vartavan氏は、米ZDNetの取材に対して、各国政府はこの問題についていくのに苦労していると述べた。「その理由は、この問題がまだ初期段階にある上に、テクノロジーの発展があまりにも速く、私たちは常にそれを追いかける形になるためだ。常に新しい発見があるため、それに追いつくことは不可能だ」と同氏は言う。

 事実上、これまでに公表されたすべてのフレームワークは、開発者がAIシステムを開発する際に念頭に置いておくべき一般的な価値観を示すものだ。これらの価値観は人権に基づいたものが多く、通常は公平性、差別の排除、アルゴリズムの意思決定に関する透明性、作った人間が作ったものに対する責任を負うなどの内容が含まれている。

 重要なのは、ほとんどのガイドラインが、新しいツールのコンセプトを作る最初の段階から、実装や商用化に至るまで、開発のあらゆる段階で倫理的な影響について検討することを求めている点だ。

 この「設計による倫理(Ethics by Design)」の原則は、責任の問題と密接に関連しており、大まかに言えば「開発者は十分に注意しろ」と言い換えることもできる。つまり、プログラムがユーザーに害を及ぼさないようにする責任は、開発チームが負うことになったということだ。そして、それを確実にするには、開発の最初の段階からAIの倫理に取り組む以外にない。

 設計による倫理という考え方の問題は、これまでの技術は、必ずしも倫理を念頭に設計されていたわけではなかったということだ。計算機科学が専門のシカゴ大学教授、Ben Zhao氏は、「これはもちろん素晴らしいことだが、あまり現実的ではない」と話す。「バイアスのような一部の要因については低レベルの設計の段階で検討可能だが、AIの大部分は倫理とは無関係だ」

 大手IT企業はこの問題に気づいており、AIの倫理に多くの時間と資金を投じている。Googleの最高経営責任者(CEO)Sundar Pichai氏は、同社の倫理的なAIに対する取り組みについて、公の場で何度も発言しており、同社はAIの公平性をテストするためのオープンソースツールも公開している。また同社は、広告主がユーザー個人の詳しい情報にアクセスしなくてもターゲット型広告を表示できるようにするオープンなウェブ技術である、「Privacy Sandbox」も提案した。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. クラウド基盤

    「情シス不足」が生み出す2大リスク--多忙な情シス部門が手放すべき業務とは?

  2. セキュリティ

    Google Chrome Enterprise が実現するゼロトラスト セキュリティの最新実情

  3. ビジネスアプリケーション

    ITSMに取り組むすべての人へ、概要からツールによる実践まで解説、「ITSMクイックスタートガイド」

  4. セキュリティ

    あなたの会社は大丈夫?--サイバー攻撃対策として必要な情報セキュリティの早分かりガイドブック

  5. ビジネスアプリケーション

    業務マニュアル作成の課題を一気に解決へ─AIが実現する確認と修正だけで完了する新たなアプローチ

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]