編集部からのお知らせ
Pick up! ローコード開発の行方
「これからの企業IT」の記事はこちら
海外コメンタリー

AIの議論をユーザー目線で--「ブラックボックス」問題の見直しも重要に

Joe McKendrick (Special to ZDNet.com) 翻訳校正: 石橋啓一郎

2018-06-04 06:30

 人工知能(AI)は急速に進化しており、スキルさえあれば、実現に必要なツールやプラットフォームは簡単に手に入る時代になった。しかし、やみくもに突き進む前に、一度立ち止まって、よく考えてみるべき時期が来ているかもしれない。

 今、開発者やIT部門のマネージャーは、増大し続ける倫理的ジレンマの最前線に立っているだけでなく、各部門が意思決定の一部を機械に委ねてしまう可能性に直面している。それを考えれば、そろそろ、AIを使った意思決定についての認識を高め、問題について啓蒙すべきなのかもしれない。

 Microsoftは、最近開催されたイベント「Microsoft Build」で、今後の目標は、「Azure」をはじめとする同社の製品を使用しているすべての開発者が、簡単にAIを利用できるようにすることだと述べている。またGoogleも、やはり最近開催されたカンファレンス「Google I/O」で、AIを利用したいすべての人にAIへのアクセスを提供していくと述べている。同社の最高経営責任者(CEO)Sundar Pichai氏は、このイベントで「Google Assistant」に高度な会話を含む予約の電話をヘアサロンに掛けさせたデモを発表し、話題を呼んだ。

 このような大きな力には、大きな責任が伴う。そして開発者や企業の役員は、今やAIの特徴となってしまった「ブラックボックス」を作ってしまわないよう、あるいは、そのブラックボックスに依存してしまわないように注意が促されている。例えばBank of Americaとハーバード大学は最近、「The Council on the Responsible Use of Artificial Intelligence」(AIの責任ある利用に関する評議会)を設立した。この評議会は、企業や政府、社会のリーダーを集めて、AIや機械学習分野における最新の技術的な発展状況について啓蒙し、新たに生まれつつある法的、道徳的、政策的な課題について議論しながら、責任あるAIプラットフォームを開発する方法を模索することを目的とするものだ。

 Bank of Americaはこれまでも、各事業分野でさまざまなアプローチでAIに取り組んできたが、同社の技術部門のリーダーらは、手遅れになってしまう前に、AIのソリューションにさらなる透明性と倫理を確立しようとしている。これは、業界全体がAIに全面的に依存しようとしているためだ。同社の最高執行責任者(COO)兼最高技術責任者(CTO)であり、このプログラムを積極的に後押ししているCathy Bessant氏は、ForbesでPeter High氏のインタビューに答えて、「作り手や売り手が、自らが作った製品のモデルや情報源に関する議論を支配しているため、われわれユーザーが中を見通せるかどうか分からないブラックボックスが作られてしまっている」と語っている

ZDNet Japan 記事を毎朝メールでまとめ読み(登録無料)

特集

CIO

モバイル

セキュリティ

スペシャル

ホワイトペーパー

新着

ランキング

  1. 運用管理

    ファイルサーバ管理のコツはここにあり!「無法状態」から脱出するプロセスを徹底解説

  2. クラウドコンピューティング

    社員の生産性を約2倍まで向上、注目の企業事例から学ぶDX成功のポイント

  3. コミュニケーション

    真の顧客理解でCX向上を実現、いまさら聞けない「データドリブンマーケティング」入門

  4. ビジネスアプリケーション

    デメリットも把握しなければテレワークは失敗に?─LIXIL等に学ぶ導入ステップや運用のコツ

  5. 運用管理

    ニューノーマルな働き方を支えるセキュリティ-曖昧になる境界に変わらなくてはならないデータセンター運用

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNet Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]