人工知能(AI)は急速に進化しており、スキルさえあれば、実現に必要なツールやプラットフォームは簡単に手に入る時代になった。しかし、やみくもに突き進む前に、一度立ち止まって、よく考えてみるべき時期が来ているかもしれない。
今、開発者やIT部門のマネージャーは、増大し続ける倫理的ジレンマの最前線に立っているだけでなく、各部門が意思決定の一部を機械に委ねてしまう可能性に直面している。それを考えれば、そろそろ、AIを使った意思決定についての認識を高め、問題について啓蒙すべきなのかもしれない。
Microsoftは、最近開催されたイベント「Microsoft Build」で、今後の目標は、「Azure」をはじめとする同社の製品を使用しているすべての開発者が、簡単にAIを利用できるようにすることだと述べている。またGoogleも、やはり最近開催されたカンファレンス「Google I/O」で、AIを利用したいすべての人にAIへのアクセスを提供していくと述べている。同社の最高経営責任者(CEO)Sundar Pichai氏は、このイベントで「Google Assistant」に高度な会話を含む予約の電話をヘアサロンに掛けさせたデモを発表し、話題を呼んだ。
このような大きな力には、大きな責任が伴う。そして開発者や企業の役員は、今やAIの特徴となってしまった「ブラックボックス」を作ってしまわないよう、あるいは、そのブラックボックスに依存してしまわないように注意が促されている。例えばBank of Americaとハーバード大学は最近、「The Council on the Responsible Use of Artificial Intelligence」(AIの責任ある利用に関する評議会)を設立した。この評議会は、企業や政府、社会のリーダーを集めて、AIや機械学習分野における最新の技術的な発展状況について啓蒙し、新たに生まれつつある法的、道徳的、政策的な課題について議論しながら、責任あるAIプラットフォームを開発する方法を模索することを目的とするものだ。
Bank of Americaはこれまでも、各事業分野でさまざまなアプローチでAIに取り組んできたが、同社の技術部門のリーダーらは、手遅れになってしまう前に、AIのソリューションにさらなる透明性と倫理を確立しようとしている。これは、業界全体がAIに全面的に依存しようとしているためだ。同社の最高執行責任者(COO)兼最高技術責任者(CTO)であり、このプログラムを積極的に後押ししているCathy Bessant氏は、ForbesでPeter High氏のインタビューに答えて、「作り手や売り手が、自らが作った製品のモデルや情報源に関する議論を支配しているため、われわれユーザーが中を見通せるかどうか分からないブラックボックスが作られてしまっている」と語っている。