OpenAIの「ChatGPT」が全世界で1億人を超えるユーザーを獲得したことは、人工知能(AI)の有用なユースケースを顕在化させた一方で、規制強化の必要性も浮き彫りにしている。そこでOpenAIは、より安全で堅牢なモデルの構築を支援するチームの立ち上げに乗り出した。
提供:OpenAI
OpenAIは米国時間9月19日、専門家で構成される「OpenAI Red Teaming Network」を立ち上げることを明らかにした。その狙いは、これらの専門家にリスクの評価および緩和戦略に必要な知見を提供してもらい、より安全性の高いモデルを展開することにある。
このネットワークは、OpenAIのリスク評価の取り組みを、「大規模なモデル展開の前に行われる1回限りの契約や選考プロセス」ではなく、モデルおよび製品の開発サイクルのさまざまな段階にまたがる、より正式なプロセスにするものだという。
OpenAIでは、このRed Teaming Networkの結成にあたり、教育、経済、法律、言語、政治学、心理学など、さまざまな学問の領域にバックグラウンドを持つエキスパートを募っている。
その一方で、AIシステムや言語モデルに関する経験は問わないという。
メンバーにはこのチームに費やした時間に対して報酬が支払われ、秘密保持契約(NDA)が適用される。また、メンバーはすべての新しいモデルやプロジェクトに関与するわけではないため、このチームへの参加によって拘束される時間は一番少ないケースでは年に5~10時間程度で済むこともあるという。ネットワークへの参加を希望する場合は、OpenAIのサイトから応募できる。
レッドチーム(攻撃者側の視点に立ってリスクを調査するチーム)の結成は、新しいテクノロジーの有効性をテストしたり、安全性を確保したりするために欠かせないプロセスだ。GoogleやMicrosoftなど、他の大手テクノロジー企業も、AIモデル専任のレッドチームを設置している。
この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。