DeepSeekV3.2技术报告还是老外看得细

213次阅读
没有评论

DeepSeekV3.2技术报告还是老外看得细

henry 发自 凹非寺

量子位 | 公众号

ChatGPT三岁生日这一天,硅谷热议的新模型来自DeepSeek

准确说是两款开源模型——DeepSeek-V3.2DeepSeek-V3.2-Speciale

这俩模型火到什么程度呢?

有网友表示,在去圣地亚哥的(疑似赶场NeurIPS 2025)航班上,有30%的乘客都在对着DeepSeek的PDF两眼冒光。

DeepSeekV3.2技术报告还是老外看得细

而上周嘲讽DeepSeek “昙花一现”的推特更是在发布的当晚被刷到了500万浏览。

DeepSeekV3.2技术报告还是老外看得细

除了普通网友,奥特曼也是急急急急:不仅启动红色警报,还临时推迟了在ChatGPT上投放广告的计划。

与此同时,那一头的谷歌也没被放过。

网友直接 “灵魂喊话” 谷歌Gemini团队:别睡了,DeepSeek回来了。

DeepSeekV3.2技术报告还是老外看得细

这是怎么一回事?

闭源精锐?打的就是闭源精锐!

总的来说,DeepSeek-V3.2模型在智能体评测中达到了当前开源模型的最高水平,大幅缩小了开源模型与顶尖闭源模型的差距,并宣告了闭源落后开源的结束。

DeepSeekV3.2技术报告还是老外看得细

其中,标准版DeepSeek-V3.2在推理测试中,达到了GPT-5的水平,仅略低于Gemini-3.0-Pro。

而“特别版”DeepSeek-V3.2-Speciale不仅全方位超越了GPT-5,还能在主流推理任务中和Gemini-3.0-Pro掰掰手腕。

此外,V3.2-Special还拿下了IMO、CMO、ICPC及IOI的金牌,并在ICPC和IOI上达到了人类选手第二名与第十名的水平。

这不仅击碎了开源模型落后闭源模型半年的质疑,又顺便给硅谷的闭源AI公司好好上了一波压力。

DeepSeekV3.2技术报告还是老外看得细

而且,这还不是V4/R2。

换句话说,大菜还没上呢,光凉菜就已经让硅谷吃饱了。

DeepSeekV3.2技术报告还是老外看得细

对于DeepSeek-V3.2这次的成绩,DeepSeek研究院苟志斌(Zhibin Gou)在推特上给出了相当直觉性的解答:

强化学习在长上下文长度下也能持续扩展。

为了理解这句话,我们简要地回顾一下论文。

简单来说,DeepSeek-V3.2其实干了这么几件事:

首先,利用DSA稀疏注意力解决了长上下文的效率问题,为后续的长序列强化学习打下了计算基础。

接下来,通过引入可扩展的RL,并投入超过预训练成本10%的算力进行后训练,大幅提升模型的通用推理和智能体能力。

最后,DeepSeek-V3.2-Speciale版本为了探索推理能力的极限,特意放宽了RL的长度限制,允许模型生成极长的“思维链”,迫使模型通过大量的Token生成来进行深度的自我修正和探索。

这也就是说,通过长思维链让模型思考更多,通过自我修正探索让模型思考更久,进而解锁更强的推理能力。

由此,模型就能在不增加预训练规模的情况下,通过极长的思考(消耗更多token)过程实现性能的飞跃。

而上面的实验结果,恰恰证明了这套“在超长上下文下持续扩展强化学习”路线的正确性。

正如苟志斌所说:

如果说Gemini-3证明了:预训练可以持续扩展,那么DeepSeek-V3.2-Speciale 则证明了:强化学习在长上下文长度下也能持续扩展。

我们花了一年时间把 DeepSeek-V3 逼到极限。得到的教训是:

后训练阶段的瓶颈,不是等“更好的底座模型”来解决,而是靠方法和数据本身的精炼(refine)来解决。

DeepSeekV3.2技术报告还是老外看得细

换句话说,如果说Gemini-3 靠“堆知识(预训练)”赢得了上半场,那么DeepSeek-V3.2-Speciale则通过“堆思考(长上下文RL)”赢回了下半场。

此外,对于大模型已经撞到天花板了的论调,他表示:

预训练能scaling,RL也能scaling,context也能scaling,所有维度都还在上涨。

DeepSeekV3.2技术报告还是老外看得细

这表明RL不仅有效,还能通过scaling(更大 batch、更长context、更丰富任务)获得巨额收益

同时,在论文中,也有网友发现了为什么DeepSeek-V3.2在HLE和GPQA 等知识基准测试中表现稍逊:

因为计算资源有限!而单靠强化学习是无法达到这样的水平的。

DeepSeekV3.2技术报告还是老外看得细

换句话说,DeepSeek与顶尖模型的差距已经不是技术问题,而是经济问题

只要卡够,好的开源不比闭源差!

想到会便宜,没想到会便宜这么多

除了性能上持平顶尖闭源模型外,DeepSeek-V3.2系列这次也着实让大家见识到了“智能便宜到不用计费”。

DeepSeekV3.2技术报告还是老外看得细

如果从百万token输出成本来看,DeepSeek-V3.2比GPT-5便宜近24倍,比Gemini 3 Pro,便宜近29倍。

DeepSeekV3.2技术报告还是老外看得细

而随着输出token个数的增加,这个差距最高可拉大到43倍

这是什么概念呢?就好比你让大模型一次性“写”出一套《三体》三部曲,用GPT-5你大概需要八百块,Gemini 3 Pro需要一千块。

用DeepSeekV3.2只需要差不多35块钱!

所以,性能差不多,价格却能差出几十倍。该选哪边,答案不用多说了吧?

对此,有网友表示,DeepSeek-V3.2这一经济实惠的开源模型正在挑战Gemini3.0 Pro。

DeepSeekV3.2技术报告还是老外看得细

而另一头OpenAI昂贵的订阅费,瞬间就不顺眼了。

DeepSeekV3.2技术报告还是老外看得细

当然,这并不是说DeepSeekV3.2毫无缺点。

正如一位网友指出的,同样解决一个问题,Gemini只需要2万个token,而Speciale则需要花费7.7万个。

(这实际上也是上面长下文RL的trade off)

DeepSeekV3.2技术报告还是老外看得细

不过,低廉的价格也在一定程度上弥补了现阶段Speciale版本的弱点。

总的来说,DeepSeek仍旧是更实惠的那个。

除此之外,也许更让硅谷感到头疼的就是DeepSeek-V3.2还可能直接在国产算力(华为、寒武纪)中部署,而这将进一步拉低模型推理的成本。

此前,在发布DeepSeek-V3.2-Exp时,DeepSeek在发布首日就针对华为Ascend硬件和CANN软件栈进行了优化。

这次的DeepSeek-V3.2系列虽然没有明确表示,但大概率也会延续此前的战略。

换句话说,难过可能的不止是谷歌和OpenAI,还有他们的好兄弟——英伟达。

DeepSeekV3.2技术报告还是老外看得细

然而,这里的价格还只是模型公司的定价,并非推理的实际成本。

尽管我们无法得知各家模型实际的推理成本,但从DeepSeek的技术报告中可以看到一个清晰趋势:

相较于前一代模型DeepSeek-V3.1-Terminus,DeepSeek-V3.2在最长上下文(128K)场景下,成本降低了75%83%左右。

DeepSeekV3.2技术报告还是老外看得细

这意味着随着注意力机制与后训练的不断优化,底层推理成本正在持续下探

正如一位网友所总结的那样:

DeepSeek证明了:实现强大的AI,并不一定需要夸张的资本投入。

DeepSeekV3.2技术报告还是老外看得细

参考链接

[1]https://x.com/airesearch12/status/1995465802040983960

[2]https://www.nbcnews.com/tech/innovation/silicon-valley-building-free-chinese-ai-rcna242430

版权所有,未经授权不得以任何形式转载及使用,违者必究。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 0
评论(没有评论)

文心AIGC

2025 年 12 月
1234567
891011121314
15161718192021
22232425262728
293031  
文心AIGC
文心AIGC
人工智能ChatGPT,AIGC指利用人工智能技术来生成内容,其中包括文字、语音、代码、图像、视频、机器人动作等等。被认为是继PGC、UGC之后的新型内容创作方式。AIGC作为元宇宙的新方向,近几年迭代速度呈现指数级爆发,谷歌、Meta、百度等平台型巨头持续布局
文章搜索
热门文章
潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026

潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026

潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026 Jay 2025-12-22 09...
“昆山杯”第二十七届清华大学创业大赛决赛举行

“昆山杯”第二十七届清华大学创业大赛决赛举行

“昆山杯”第二十七届清华大学创业大赛决赛举行 一水 2025-12-22 17:04:24 来源:量子位 本届...
MiniMax海螺视频团队首次开源:Tokenizer也具备明确的Scaling Law

MiniMax海螺视频团队首次开源:Tokenizer也具备明确的Scaling Law

MiniMax海螺视频团队首次开源:Tokenizer也具备明确的Scaling Law 一水 2025-12...
天下苦SaaS已久,企业级AI得靠「结果」说话

天下苦SaaS已久,企业级AI得靠「结果」说话

天下苦SaaS已久,企业级AI得靠「结果」说话 Jay 2025-12-22 13:46:04 来源:量子位 ...
最新评论
ufabet ufabet มีเกมให้เลือกเล่นมากมาย: เกมเดิมพันหลากหลาย ครบทุกค่ายดัง
tornado crypto mixer tornado crypto mixer Discover the power of privacy with TornadoCash! Learn how this decentralized mixer ensures your transactions remain confidential.
ดูบอลสด ดูบอลสด Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
Obrazy Sztuka Nowoczesna Obrazy Sztuka Nowoczesna Thank you for this wonderful contribution to the topic. Your ability to explain complex ideas simply is admirable.
ufabet ufabet Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
ufabet ufabet You’re so awesome! I don’t believe I have read a single thing like that before. So great to find someone with some original thoughts on this topic. Really.. thank you for starting this up. This website is something that is needed on the internet, someone with a little originality!
ufabet ufabet Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
热评文章
库克提拔复旦校友掌舵苹果基础模型!庞若鸣走后涨薪止血,谷歌旧部占据半壁江山

库克提拔复旦校友掌舵苹果基础模型!庞若鸣走后涨薪止血,谷歌旧部占据半壁江山

库克提拔复旦校友掌舵苹果基础模型!庞若鸣走后涨薪止血,谷歌旧部占据半壁江山 衡宇 2025-12-21 10:...
清华孙茂松:对工业界而言,大厂可以Scaling,其他玩家重在垂直应用 | MEET2026

清华孙茂松:对工业界而言,大厂可以Scaling,其他玩家重在垂直应用 | MEET2026

清华孙茂松:对工业界而言,大厂可以Scaling,其他玩家重在垂直应用 | MEET2026 Jay 2025...
奥迪+华为=油车智能天花板?

奥迪+华为=油车智能天花板?

Failed to fetch content Read More 
LeCun离职前的吐槽太猛了

LeCun离职前的吐槽太猛了

LeCun离职前的吐槽太猛了 一水 2025-12-21 19:13:08 来源:量子位 “LLM到不了AGI...
自变量王潜:具身智能是物理世界的独立基础模型|MEET2026

自变量王潜:具身智能是物理世界的独立基础模型|MEET2026

自变量王潜:具身智能是物理世界的独立基础模型|MEET2026 一水 2025-12-21 19:11:12 ...