DeepSeekは米国時間3月25日、「DeepSeek-V3-0324」を正式に発表した。前日には「HuggingFace」に新モデルがアップロードされていたが、追加情報はほとんどなかった。
「DeepSeek-R1」と同様に、新バージョンは、MITライセンスの下でオープンソースとして公開されている(公開されているのは、実際のコードではなく、モデルの重みのみ)。
DeepSeekは「X」への投稿で、今回のアップデートでは、ウェブ開発におけるコーディングスキルと「推論性能の大幅な向上」が見られると述べた。しかし、同社はこのモデルをあまり複雑でない推論タスクに使うことを推奨している。R1は同社最高の推論モデルであり、「Chatbot Arena」で4位にランクインしている。
DeepSeekは、このアップデートにより、幾つかの業界標準ベンチマークで「DeepSeek-V3」を上回るパフォーマンスを示したと述べた。特に、American Invitational Mathematics Examination(AIME)で20ポイント近く高いスコアを獲得している。

※クリックすると拡大画像が見られます
ほとんどのモデルにとって、ベンチマークは簡単になりすぎている(ベンチマークの飽和)が、AIMEは依然として大半のベンチマークよりも難しいと考えられている。1月には、Scale AIとCenter for AI Safety(CAIS)が飽和に対抗するために「Humanity's Last Exam」(HLE)をリリースした。
とはいえ、AIMEは高校数学の内容に基づいているため、その解答はオンラインで公開されており、トレーニングデータに含まれる可能性がある。
DeepSeekによると、その他の改良点としては、「強化された」ライティングスタイルや長文コンテンツにおける品質向上が挙げられる。

提供:Elyse Betters Picaro / ZDNET
この記事は海外Ziff Davis発の記事を朝日インタラクティブが日本向けに編集したものです。