生成AIの安全性が懸念される理由は多くある。訓練用データの収集・使用方法、有害コンテンツからユーザーを保護する方法の一貫性の欠如、ハルシネーションの可能性、誤った情報の拡散などがそれに該当する。これらの問題に取り組むため、米国政府と主要AI企業が新しい提携を結んだ。
米商務省の国立標準技術研究所(NIST)にある米国人工知能安全研究所(USAISI)は米国時間8月29日、AnthropicとOpenAIと研究、試験、評価における正式な協力について合意したと発表した。
「これらの合意により、AIの安全に関する科学を進展させるため、AnthropicとOpenAIと技術協力を開始することを楽しみにしている」とUSAISIの所長を務めるElizabeth Kelly氏はリリースで述べる。「これらの合意は始まりでしかないが、責任を持ってAIの未来を導くために作業することにおいて重要な節目となる」
両社は、主要な新しいモデルを一般提供する前後でリスクの評価・軽減が可能になるよう、USAISIにアクセスを与えることに合意している。
リリースによると、USAISIは、英国人工知能安全研究所のパートナーとも協力し、安全性向上の可能性についてフィードバックを両社に提供するという。米国と英国は、これまでもAIの安全性について協力関係にあり、5月にはAIモデルの安全性試験の開発で提携している。
提供:Getty Images/J Studios
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。