OpenAI、「レッドチーム」を立ち上げ--AIのリスク管理強化に向け専門家を募集

Sabrina Ortiz (ZDNET.com) 翻訳校正: 編集部

2023-09-21 12:16

 OpenAIの「ChatGPT」が全世界で1億人を超えるユーザーを獲得したことは、人工知能(AI)の有用なユースケースを顕在化させた一方で、規制強化の必要性も浮き彫りにしている。そこでOpenAIは、より安全で堅牢なモデルの構築を支援するチームの立ち上げに乗り出した。

OpenAIのウェブページのキャプチャ
提供:OpenAI

 OpenAIは米国時間9月19日、専門家で構成される「OpenAI Red Teaming Network」を立ち上げることを明らかにした。その狙いは、これらの専門家にリスクの評価および緩和戦略に必要な知見を提供してもらい、より安全性の高いモデルを展開することにある。

 このネットワークは、OpenAIのリスク評価の取り組みを、「大規模なモデル展開の前に行われる1回限りの契約や選考プロセス」ではなく、モデルおよび製品の開発サイクルのさまざまな段階にまたがる、より正式なプロセスにするものだという。

 OpenAIでは、このRed Teaming Networkの結成にあたり、教育、経済、法律、言語、政治学、心理学など、さまざまな学問の領域にバックグラウンドを持つエキスパートを募っている。

 その一方で、AIシステムや言語モデルに関する経験は問わないという。

 メンバーにはこのチームに費やした時間に対して報酬が支払われ、秘密保持契約(NDA)が適用される。また、メンバーはすべての新しいモデルやプロジェクトに関与するわけではないため、このチームへの参加によって拘束される時間は一番少ないケースでは年に5~10時間程度で済むこともあるという。ネットワークへの参加を希望する場合は、OpenAIのサイトから応募できる。

 レッドチーム(攻撃者側の視点に立ってリスクを調査するチーム)の結成は、新しいテクノロジーの有効性をテストしたり、安全性を確保したりするために欠かせないプロセスだ。GoogleやMicrosoftなど、他の大手テクノロジー企業も、AIモデル専任のレッドチームを設置している。

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ホワイトペーパー

新着

ランキング

  1. クラウドコンピューティング

    生成 AI の真価を引き出すアプリケーション戦略--ユースケースから導くアプローチ

  2. セキュリティ

    セキュリティ担当者に贈る、従業員のリテラシーが測れる「情報セキュリティ理解度チェックテスト」

  3. セキュリティ

    マンガで解説、「WAF」活用が脆弱性への応急処置に効果的である理由とは?

  4. セキュリティ

    クラウドネイティブ開発の要”API”--調査に見る「懸念されるリスク」と「セキュリティ対応策」

  5. セキュリティ

    5分で学ぶCIEMの基礎--なぜ今CIEM(クラウドインフラストラクチャ権限管理)が必要なのか?

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]