IBM、推論機能を強化したLLM「Granite 3.2」を発表

Steven J. Vaughan-Nichols (Special to ZDNET.com) 翻訳校正: 緒方亮 吉武稔夫 (ガリレオ)

2025-03-03 09:40

 IBMは、大規模言語モデル(LLM)の「Granite」ファミリーとして新たに「Granite 3.2」を発表した。今回は、企業向けの小規模で効率的かつ実用的な人工知能(AI)ソリューションの提供に重点が置かれている。

 LLMのGraniteファミリーについて、IBMは急ピッチでアップデートを続けている。2024年末に登場した前回の「Granite 3.1」は、実質的にアップデートだった。一方、今回のモデルでは、このLLMが備えるさまざまな機能に、「思考の連鎖」(CoT)による実験的な推論機能が加わる。

 CoT推論とは、複雑な問題をLLMが複数の論理ステップに分けられるようにする先進的なAI手法であり、人間のような推論プロセスを模倣することを目指している。理論的には、このアプローチによって複数ステップの推論、計算、意思決定が必要なタスクに対するLLMの能力が大きく向上する。

 具体的には、IBMのCoTでは、多岐にわたる指示追従タスクで推論を強化する「Thought Preference Optimization(TPO)」フレームワークが採用されている。主に論理駆動タスクを対象とする従来の強化学習のアプローチと異なり、TPOはタスク全般の有効性を犠牲にすることなく、推論能力を高めることが可能だ。推論に特化した他のモデルでよく見られる性能のトレードオフを軽減できる。

 IBMは今回、ドキュメント理解のタスクに特化した20億パラメーターの新しい視覚言語モデル(VLM)も導入した。グラフィック方面の機能だと思うかもしれないが、そうではない。Graniteファミリーのドキュメント理解力を向上させるのがVLMの目的だ。IBMは、オープンソースのツールキット「Docling」を用いて、8500万件のPDFファイルを処理し、質問と回答のペア2600万組を生成し、これを用いてドキュメントの多い複雑なワークフローについて、VLMの対応力を向上させた。

 また、Graniteファミリーの高度な予測機能についても、企業が関心を持つかもしれない。1000万パラメーターに満たない新しい「Tiny Time Mixer」(TTM)モデルは、最大で2年先までの長期的な予測ができる。金融、経済、サプライチェーン管理のトレンド分析に有効なモデルだ。野球で夢のチームメンバーを組むのにはまだ使えないかもしれないが、将来はわからない。

 IBMがオープンソースに最も好意的なAI企業であることは、これまでと変わらない。Granite 3.2のモデルはいずれも、「Hugging Face」から「Apache License 2.0」ライセンスで入手できる。一部のモデルは「IBM watsonx.ai」「Ollama」「Replicate」「LM Studio」などのプラットフォームで入手できる。IBMのこのオープンなアプローチは、企業がもっと利用できるようにAIの費用対効果を高めるというIBMの戦略と合致している。

提供:IBM/ZDNET
提供:IBM/ZDNET

この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

所属する組織のデータ活用状況はどの段階にありますか?

NEWSLETTERS

エンタープライズコンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]