NVIDIA、AIチャットボットの安全利用を支援する「NeMo Guardrails」を発表

藤本和彦 (編集部)

2023-04-26 07:00

 米NVIDAは4月25日、米OpenAIの「ChatGPT」をはじめとする大規模言語モデル(LLM)を利用するAIチャットボットなどの正確性、適切性、整合性、安全性を確保するオープンソースソフトウェア「NeMo Guardrails」を発表した。

 ジェネレーティブAI(生成系AI)の活用が進む中、その安全性の確保が業界全体の懸念事項となっている。NeMo Guardrailsは、企業の安全基準やセキュリティ要件に沿った形でAIチャットボットが応答できるように、「話題」「安全性」「セキュリティ」という3つの境界(ガードレール)を設定できる。

 話題のガードレールは、アプリが望ましくない領域の話題に逸脱するのを防ぐ。安全性のガードレールは、アプリが正確で適切な情報で応答するのを保証し、不要な言葉をフィルタリングしたり、信頼できる情報源のみを参照したりできる。セキュリティのガードレールは、安全性が確認されている外部のサードパーティーアプリケーションとのみ接続するよう制限をかけられる。数行のコードを追加するだけで迅速に新しいルールを作成可能という。

 オープンソースのツールキット「LangChain」や自動化ツール「Zapier」など、さまざまなツールとの連携も可能となっている。

 NeMo Guardrailsは、企業独自のデータを使って生成系AIモデルの構築、カスタマイズ、展開を可能にする「NVIDIA NeMo フレームワーク」に組み込まれている。NeMoはサービスとしても提供されており、独自のデータセットやドメイン知識に基づいてカスタムの生成系AIモデルを作成・実行したい企業向けのクラウドサービスとなっている。

「ガードレール」のイメージ
「ガードレール」のイメージ

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]