2025年を「人工知能(AI)エージェント」の年と言う人は多い。ユーザーに代わってタスクを実行できるこのようなAIシステムは、企業のワークフローの最適化にとりわけ役立つからだ。そんな中、ServiceNowは年次カンファレンス「ServiceNow Knowledge 2025」で、AIエージェントを進化させるためにNVIDIAと共同開発した新しいモデルを発表した。
「Apriel Nemotron 15B」
ServiceNowとNVIDIAは米国時間5月6日、レイテンシーと推論コストが低いエージェントAIの実現を目指したオープンソースの推論大規模言語モデル(LLM)「Apriel Nemotron 15B」を新たに発表した。リリースによると、このモデルのトレーニングには、カスタム生成AIプラットフォームの「NVIDIA NeMo」の事後学習データセット、およびServiceNowのドメイン固有データが使用されたという。
このモデルの最大の特徴は、高度な推論機能がコンパクトにパッケージングされていることだ。そのため、NVIDIA製GPUを搭載したインフラ上で「NVIDIA NIM」マイクロサービスとして実行する際にコストが安く、高速に実行できるにもかかわらず、企業が求めるエンタープライズグレードのインテリジェンスを提供できる。
ServiceNowによれば、Apriel Nemotron 15Bは同カテゴリーのベンチマークテストで有望な結果を示し、エージェントAIワークフローをサポートするのに適していることが確認されたという。
エージェントAIの利用に当たっては、推論能力がとりわけ重要だ。なぜなら、このような自動化された体験では、AIがさまざまな場面でエンドユーザーに代わってタスクを実行するからだ。人間の指示を受けずにタスクを実行することになるため、AI自身が何らかの処理や推論を行いながら、タスクの最適な進め方を判断する必要がある。
共同データフライホイールアーキテクチャー
両社は新しいモデルに加え、共同データフライホイールアーキテクチャーも発表した。データフライホイールとは、AIモデルをさらに改良するためにさまざまなやりとりからデータを収集するフィードバックループのことだ。リリースによると、このアーキテクチャーはServiceNowの「ワークフローデータファブリック」と厳選されたNVIDIA NeMoマイクロサービスを統合したものだという。
この共同アーキテクチャーにより、企業は自社のワークフローデータを使用して推論モデルをさらに改良できる。また、ガードレールを実装することで、顧客を保護したり、データが安全かつタイムリーに処理されるようにしたり、必要な管理機能を入手したりすることも可能だ。そのため、うまくいけば、高度にパーソナライズされたコンテキストアウェアなAIエージェントの構築につながるはずだと、ServiceNowは述べている。

提供:Elyse Betters Picaro / ZDNET
この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。