AIは「インテリジェント」なだけ--倫理的なAIには倫理的な人間が必要 - (page 2)

Garry Kasparov

2019-03-06 07:00

政府が果たすべき役割がある

 ダボス会議で繰り返し議論されたもう1つの見解は、人間とAIとの連携の重要性であった。拙書『ディープ・シンキング』で大々的に論じた通り、そしてAIの統合に関するベストプラクティスを提案した最近のレポートのように、人がその役割を果たすことで、AIはより効果的に機能する。

 AIは創造性や判断で人類を追い抜く可能性を示したことはない。AIの強みは、大量のデータを学習してパターンを追跡し、予測することであり、偏った見解を示したり、複雑な社会的コンテキストを読み解いたりはしない。

 企業もこうした状況を理解しており、ソーシャルメディアプラットフォームには、情報のフィルタリングアルゴリズムが予定通り機能しているかを確認するための従業員が存在する。同様に、医療専門家は今もなお、AIシステムのアドバイスを確認した上で、患者の状況に合わせて自らのより深い知識を活用する必要がある。そして、自動化のサービスやシステムが人間の労働に取って代わることはなく、AIの理解を超えた状況に対処する労働者の時間を解放することもない。

 しかし、われわれは交替要員をトレーニングしており、AIの理解は拡大を続けているため、さらなる進化を達成できるよう、目標への意欲的な姿勢を忘れてはならない。

 それでは、企業のリーダーや政府の政策立案者は、こうした成果をどのように生かすべきだろうか?

 テクノロジ業界で最も一般的に考案される戦略によって、有意義な変化が生まれることについて、筆者は疑問視している。このモデルによると、AIの潜在的なマイナスの側面や危険性を軽減するため、企業は何の監視もなく、自力で対策を講じる必要がある。必要な対策の一部は、少なくとも短期的には利益に影響を及ぼすかもしれない。

 そしてわれわれは、シリコンバレーの巨大企業が株主の利益を優先するのを幾度も目撃している。最新の事例として、この数年間厳しい目にさらされているにもかかわらず、Facebookは1月、携帯電話やインターネットのあらゆるアクティビティをダウンロードする“調査アプリ”をインストールする見返りに月額20ドルを若者に支払っていたことを認めた。

 これほどまでに一貫して一般市民の信頼を悪用してきた団体を信頼するのは難しい。AIの領域でも、良い宣伝にこそなれ、重大な行動の変化は避けて通るような、生ぬるい対策がわれわれの期待できる最善のものであるとは考えにくい。

 つまり、分別ある制限の中で、政府が果たすべき役割が、遅かれ早かれ存在するのだ。そこまで強引な比較だとは筆者は思わないが、19世紀初頭の鉄道王や金融界の巨人のことを引き合いに出してみたい。

 こうしたケースでも、既得権者はあまりにも大きな存在であり公益に反していたため、Theodore Roosevelt大統領によるトラスト解散のイニシアチブは適切であった。ソビエト市民として想定される最悪の事態を見てきたため、筆者は断じて大きな政府の支持者ではないが、世の中には規制や監視が必要な状況も存在する。経済協力開発機構(OECD)はすでに、産学官が一堂に会するAI会議を開催しており、昨年の会議では筆者も短いオープニング動画をお送りした。

 AIは、単に「インテリジェント」なだけであり、他のテクノロジよりも本質的に倫理的なわけではない。「倫理的な蒸気発電」や「倫理的な無線通信」は存在しておらず、これまで技術は基準や規制のもと、倫理的に使用されてきただけである。

 事実、われわれは未だに「倫理的なインターネット」の面で立ち遅れており、悪用が基準や法律を上回っている。だからと言って、諦めることはない。これまでよりも努力して、より良い仕事をするだけの話である。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]