OpenAIとAnthropic、AIの安全性で米政府と協力

Sabrina Ortiz (ZDNET.com) 翻訳校正: 編集部

2024-08-30 15:25

 生成AIの安全性が懸念される理由は多くある。訓練用データの収集・使用方法、有害コンテンツからユーザーを保護する方法の一貫性の欠如、ハルシネーションの可能性、誤った情報の拡散などがそれに該当する。これらの問題に取り組むため、米国政府と主要AI企業が新しい提携を結んだ。

 米商務省の国立標準技術研究所(NIST)にある米国人工知能安全研究所(USAISI)は米国時間8月29日、AnthropicとOpenAIと研究、試験、評価における正式な協力について合意したと発表した

 「これらの合意により、AIの安全に関する科学を進展させるため、AnthropicとOpenAIと技術協力を開始することを楽しみにしている」とUSAISIの所長を務めるElizabeth Kelly氏はリリースで述べる。「これらの合意は始まりでしかないが、責任を持ってAIの未来を導くために作業することにおいて重要な節目となる」

 両社は、主要な新しいモデルを一般提供する前後でリスクの評価・軽減が可能になるよう、USAISIにアクセスを与えることに合意している。

 リリースによると、USAISIは、英国人工知能安全研究所のパートナーとも協力し、安全性向上の可能性についてフィードバックを両社に提供するという。米国と英国は、これまでもAIの安全性について協力関係にあり、5月にはAIモデルの安全性試験の開発で提携している

提供:Getty Images/J Studios
提供:Getty Images/J Studios

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]