人工知能(AI)の安全性とバイアスは、安全なAIを目指す研究者にとって差し迫った複雑な問題となっている。AIは社会のあらゆる面に組み込まれるようになってきており、AIの開発プロセスや、AIの機能や、潜在的な欠点を理解することは非常に重要だ。
米ZDNETは、Intel Labsのインテリジェントシステム研究所ディレクターLama Nachman氏にインタビューを行った。同氏は、AIのトレーニングや学習プロセスに、さまざまな分野の専門家の意見を取り入れることは非常に重要だと語った。Nachman氏は、同氏らが行っている研究について、「私たちの研究では、AIシステムがAI開発者ではなく各分野の専門家から学ぶことを前提としている。(中略)この場合、AIシステムには、AIシステムをプログラムする方法を理解していない人がものを教えることになる。(中略)システムは、そこから自動的に行動認識や会話のモデルを構築する」と述べている。
このアプローチは、非常に興味深く、コストも非常に高くなる可能性があるが、ユーザーとのやりとりを繰り返していくに従って、システムが継続的に改善されていく可能性がある。Nachman氏は、「もちろん、一般的な会話から得られる部分もあるが、人間が『ChatGPT』を使っているときにやっていることとはまったく違う、物理的な世界の人間の振る舞いからしか得られないこともたくさんある。現在のAI技術が提供している対話システムは素晴らしいものだが、物理的な作業を理解して実行する方向へ向かうためには、これまでとはまったく異なる課題を解決する必要がある」と説明した。
同氏はまた、AIの安全性はさまざまな要因によって損なわれる可能性があるとも話した。例えば目的がうまく定義されていない場合もあれば、堅牢性が不足している場合もあるだろうし、特定の入力に対するAIの反応が予測できない場合もあるかもしれない。AIシステムが大規模なデータセットでトレーニングされたものである場合、そのデータに含まれている有害な行動を学習し、それを再現してしまう可能性もある。
AIシステムにバイアスがあれば、差別や不当な意思決定といった、公正でない結果が出てもおかしくない。バイアスがAIシステムに紛れ込む方法はいくらでもある。例えば、トレーニングに使われたデータに、社会に存在している偏見が反映されているかもしれない。AIは人間生活のさまざまな面に浸透しているため、偏った判断によって何らかの危害が起きる可能性も大きくなっており、効果的にバイアスを検出し、緩和する手段が必要になっている。
もう1つ懸念されるのは、誤情報の拡散におけるAIの役割だ。高度なAIツールがより身近になるにつれて、世論を欺いたり、誤った物語を広めたりすることを目的とした、人をだますためのコンテンツの生成にAIが使われるリスクが高まっている。その悪影響は、民主主義や公衆衛生、社会的結束に対する脅威など、広範囲に及ぶ可能性がある。このことは、AIによる誤った情報の拡散を緩和するためのしっかりとした対抗策の構築や、進化を続ける脅威に先回りするための研究が必要であることを示している。
どのようなイノベーションにも、避けることができない課題がある。Nachman氏は、信頼性、説明責任、透明性、説明可能性を考慮に入れて、AIシステムを高いレベルで「人間の価値観に沿う」ように設計する、リスクベースのAI開発アプローチを取ることを提案している。今の段階でAIの課題に対処することが、将来のシステムの安全性につながる。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。