シンガポール -Media OutReach Newswire- 2026年2月19日 - GLM-5がオープンソースとして公開され、人工知能の潮流が大きく変わりつつあります。大規模言語モデルは、コードスニペットやインターフェースプロトタイプの生成だけでなく、システム全体の構築や複雑なエンドツーエンドのタスクの実行も担うようになっています。これは、いわゆる「バイブコーディング」から、研究者の間で広まりつつある「エージェント型エンジニアリング」への移行を示すものです。
(リンク »)
LLM性能評価:エージェント、推論、コーディング
この新たな段階のために構築されたGLM-5は、コーディングや自律的なタスク実行において最も優れたオープンソースモデルのひとつです。現実的なプログラミング環境、特に、複雑なシステム設計や、継続的な計画や実行が必要となる長期タスク(long-horizon task)において、Claude Opus 4.5に迫る性能を発揮します。
このモデルはキャパシティーと効率の向上を目指す新たなアーキテクチャーに基づいています。総パラメーター数は3,550億から7,440億に、アクティブパラメーター数は320億から400億に増加し、事前学習データは28.5兆トークンに拡大しました。さらに、学習方法も進化しています。Slimeと呼ばれるフレームワークにより、非同期の強化学習を大規模に展開できるようになり、モデルが長時間にわたるやり取りから継続的に学習し、学習後の効率を高めることが可能となります。また、DeepSeek Sparse Attentionを新たに導入し、長いコンテキストにおける性能を維持しつつ、展開コストを削減し、トークン効率を向上させます。
ベンチマークでも顕著な性能の向上が示されています。GLM-5はSWE-bench-Verifiedでは77.8、Terminal Bench 2.0では56.2と、オープンソースモデルとしては最高のスコアを記録しており、ソフトウェアエンジニアリング関連の複数のタスクにおいてGemini 3 Proを上回っています。自動販売機ビジネスを1年間運営するシミュレーションベンチマークのVending Bench 2においては、最終的な収支が4,432ドルとなり、運用面とコスト面の両方で他のオープンソースモデルを上回りました。
これらの結果は、長期的な目標の維持、リソース管理、多段階の処理の連携という、エージェント型エンジニアリングに求められる特性を示しています。モデルがこのような機能をますます担うようになる中で、最前線のAIはコードを生成するものから、実際に機能するシステムを提供するものにシフトしつつあるようです。
チャットおよび公式APIアクセス
Z.ai Chat: (リンク »)
GLM Coding
Plan: (リンク »)
オープンソースリポジトリー
GitHub: (リンク »)
Hugging Face: (リンク »)
ブログ
GLM-5技術ブログ: (リンク »)
本プレスリリースは発表元企業よりご投稿いただいた情報を掲載しております。
お問い合わせにつきましては発表元企業までお願いいたします。
お問い合わせにつきましては発表元企業までお願いいたします。
