DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

614次阅读
没有评论

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

通过强化学习发现新技能

梦晨 西风 发自 凹非寺
量子位 | 公众号 QbitAI

DeepSeek放大招!新模型专注数学定理证明,大幅刷新多项高难基准测试。

在普特南测试上,新模型DeepSeek-Prover-V2直接把记录刷新到49道

目前的第一名在657道题中只做出10道题,为Kimi与AIME2024冠军团队Numina合作成果Kimina-Prover

而未针对定理证明优化的DeepSeek-R1只做出1道

让还没发布的R2更令人期待了。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

除测评结果之外,论文中特别报告了“通过强化学习发现新技能”现象。

正如R1带来了“啊哈时刻”,Prover-V2也有令人意想不到的能力。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

具体来说,在普特南测试中,参数量较小的DeepSeek-Prover-V2-7B用非CoT生成模式成功解决了13个671B模型未能解决的问题。

团队仔细检查该模型的输出后发现,其推理方法存在一个独特模式:7B模型处理涉及有限基数的问题时,经常使用Cardinal.toNatCardinal.natCast_inj,而671B模型生成的输出中明显没有这些内容。

要注意,7B模型是在DeepSeek-Prover-V1.5-Base模型基础上,先使用671B模型在强化学习阶段收集的数据微调,再执行强化学习得来的。

也就是说,7B模型学会了671B模型没有学会的新技能。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

那么,DeepSeeK-Prover-V2如何炼成的呢?与前代相比又有哪些改进?

形式化和非形式化数学证明统一模型

DeepSeek数学定理证明DeepSeek-Prover系列模型已推出3款:

  • 2024年3月的DeepSeek-Prover(后简称为Prover-V1)
  • 2024年8月的DeepSeek-Prover-V1.5(后简称为Prover-V1.5)
  • 2025年5月的DeepSeek-Prover-V2(后简称为Prover-V2)

Prover-V1主要探索了通过大规模合成数据集微调DeepSeek-Math-7B,来推进定理证明。

Prover-V1.5在此基础上增加了证明助手反馈的强化学习(RLPAF)和蒙特卡洛树搜索方法。

Prover-V2进一步提出“子目标分解的强化学习”,并且基础模型从DeepSeek-Math-7B升级到DeepSeek-V3。

整合DeepSeek-V3的高上下文窗口和强大的自然语言推理能力,把形式化和非形式化数学证明统一到一个模型中。

Prover-V2还继承了Prover-V1.5提出的CoT和非CoT生成两种模式。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

接下来,详细介绍Prover-V2的各主要环节。

通过递归证明搜索合成冷启动推理数据

利用DeepSeek-V3作为子目标分解和形式化的统一工具构建冷启动数据集,提示DeepSeek-V3将定理分解为高级证明草图,同时在Lean 4中将这些证明步骤形式化,从而产生一系列子目标。

使用一个较小的70亿参数模型来处理每个子目标的证明搜索,从而减轻相关的计算负担。一旦一个具有挑战性的问题的分解步骤得到解决,就将完整的逐步形式化证明与来自DeepSeek-V3的相应思维链进行配对,以创建冷启动推理数据。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

使用合成冷启动数据进行子目标分解的强化学习

团队精心挑选了一组具有挑战性的问题,这些问题无法由70亿参数量的证明器模型以端到端的方式解决,但所有分解后的子目标都已成功解决。

通过组合所有子目标的证明,为原始问题构建了一个完整的形式化证明。

然后,将此证明附加到DeepSeek-V3的思维链中,该思维链概述了相应的引理分解,从而实现了非形式化推理与后续形式化的有机结合。

在合成冷启动数据上对证明器模型进行微调后进行强化学习阶段,进一步增强其将非正式推理与形式化证明构建相衔接的能力。遵循推理模型的标准训练目标,使用二元的正确或错误反馈作为奖励监督的主要形式。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

具体训练细节

两阶段训练:

DeepSeek-Prover-V2分两阶段建立互补证明生成模式。

第一阶段用高效非思维链(non-CoT)模式,聚焦快速生成Lean证明代码,加快迭代和数据收集。

第二阶段基于第一阶段成果,采用高精度思维链(CoT)模式,阐述中间推理步骤,用冷启动思维链数据强化学习,提升复杂问题推理能力。

专家迭代:

其中非CoT模式训练遵循专家迭代范式,用最佳证明策略为难题生成证明尝试,经Lean验证,成功的纳入监督微调(SFT)数据集。与之前版本相比,训练问题分布有调整,引入了额外问题和子目标分解生成的问题。

监督微调:

对DeepSeek-V3-Base-671B做监督微调,训练语料库包含两个互补来源的数据:

一是通过专家迭代收集的非CoT数据,这些数据生成的Lean代码不包含中间推理步骤,主要用于强化模型在 Lean 定理证明生态系统中的形式验证技能。

二是冷启动CoT数据,这些数据将DeepSeek-V3的先进数学推理过程提炼为结构化的证明路径,明确地模拟了将数学直觉转化为形式证明结构的认知过程。

强化学习:

采用GRPO算法,与传统的PPO不同,GRPO无需单独的裁判模型,它通过为每个定理提示采样一组候选证明,并根据它们的相对奖励来优化策略。

训练过程中使用二元奖励机制,即生成的Lean证明若被验证正确则获得奖励1,否则为0。

为确保学习效果,精心挑选训练提示,仅包含那些有足够挑战性但又能被监督微调后的模型解决的问题。

蒸馏DeepSeek-Prover-V2 7B

将DeepSeek-Prover-V1.5-Base-7B上下文窗口扩展到32768个token,用DeepSeek-Prover-V2-671B数据微调,融入非CoT证明数据,以便利用小模型生成简洁的形式化输出,提供一种经济高效的证明选项。

此外,对DeepSeek-Prover-V2-7B执行与671B模型训练中相同的强化学习阶段,以进一步提升其性能。

由此得到的模型Prover-V2 671B在神经定理证明方面达到了最先进的性能,在miniF2F测试中的通过率达到 88.9%,并解决了普特南测试中的49道。Prover-V2为miniF2F数据集生成的证明可单独下载。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

ProverBench:AIME和教科书问题的形式化

与Prover-V2一起推出ProverBench,这是一个包含325个问题的基准数据集。其中,有15个问题是从近期美国数学邀请赛(AIME 24和25)的数论与代数题目中形式化而来,提供了真实的高中竞赛水平挑战。其余310个问题则取自精心挑选的教科书示例和教学教程,构成了一套多样化且基于教学需求的形式化数学问题集合。该基准旨在能够对高中竞赛问题和本科阶段数学问题进行更全面的评估。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

DeepSeek-Prover-V2系列在三个数据集上评测的最后总成绩如下:

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

DeepSeek全明星阵容

Prover-V2的作者共18人,共同一作Z.Z. Ren, 邵智宏、辛华剑都是参与过V3、R1以及Prover系列前作的主力成员。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

作者名单中出现了几位未参与前两代版本(Prover-V1、Prover-V1.5)的研究者。

比如Shirong Ma,清华本硕。公开资料显示,他于去年毕业后即加入DeepSeek,现为DeepSeek研究员,此前参与了从DeepSeek LLM v1到R1以及DeepSeek-Coder等工作。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

还有Zhe Fu、Yuxuan Liu

虽然他们都没出现在Prover-V1、Prover-V1.5的作者名单中,但均为DeepSeek资深成员。

在Prover-V1/V1.5同一期发布的《Fire-Flyer AI-HPC》研究中可见其署名。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

该研究提出的Fire-Flyer AI-HPC架构,通过软硬件协同设计降低训练成本,解决传统超算架构在AI训练需求上的不足。

不过这次Prover-V2的论文中并未提及在训练或推理基础设施具体有哪些优化策略。

最后还有一位新面孔Hongxuan Tang,暂未了解到具体信息。

Prover-V2发布后迅速引发社区关注,GitHub仓库12小时内即获得350+星标。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

在X(原Twitter)、抱抱脸等平台,网友们展开热烈讨论。

Prover-V2核心贡献者邵智宏在个人账号主动推介研究成果。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

X工程师@kache特别赞赏道:

感谢你们对开放科学研究的奉献。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

普林斯顿大学助理教授Chi Jin表示:

恭喜这项惊人的工作!在miniF2F上攻克最后10%-20%的问题标志着能力上的重大飞跃。当前形式化数学领域的竞争态势堪称激烈,难以置信Kimina仅保持了两周SOTA就被DeepSeek超越。

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

就连Kimina-Prover核心贡献者@Marco Dos Santos都来送上了祝贺:

祝贺DeepSeek AI团队将miniF2F任务的SOTA提升到了89%!

很高兴看到长思维链方法正在被其他团队独立探索且呈现出一些有趣的差异。形式数学如今比以往任何时候都更受欢迎!

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

另外,网友们最关注的问题仍然是:R2什么时候发布啊~

DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能
DeepSeek新数学模型刷爆记录!7B小模型自主发现671B模型不会的新技能

论文:
https://github.com/deepseek-ai/DeepSeek-Prover-V2/blob/main/DeepSeek_Prover_V2.pdf
模型:
https://huggingface.co/deepseek-ai/DeepSeek-Prover-V2-671B

DeepSeek-Prover
https://arxiv.org/abs/2405.14333
DeepSeek-Prover-V1.5
https://arxiv.org/abs/2408.08152

版权所有,未经授权不得以任何形式转载及使用,违者必究。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 0
评论(没有评论)

文心AIGC

2025 年 5 月
 1234
567891011
12131415161718
19202122232425
262728293031  
文心AIGC
文心AIGC
人工智能ChatGPT,AIGC指利用人工智能技术来生成内容,其中包括文字、语音、代码、图像、视频、机器人动作等等。被认为是继PGC、UGC之后的新型内容创作方式。AIGC作为元宇宙的新方向,近几年迭代速度呈现指数级爆发,谷歌、Meta、百度等平台型巨头持续布局
文章搜索
热门文章
清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开

清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开

清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开 Jay 2026-01-08 20:18:...
2025最大AI赢家的凡尔赛年度总结,哈萨比斯Jeff Dean联手执笔

2025最大AI赢家的凡尔赛年度总结,哈萨比斯Jeff Dean联手执笔

2025最大AI赢家的凡尔赛年度总结,哈萨比斯Jeff Dean联手执笔 鹭羽 2025-12-24 09:1...
训具身模型遇到的很多问题,在数据采集时就已经注定了丨鹿明联席CTO丁琰分享

训具身模型遇到的很多问题,在数据采集时就已经注定了丨鹿明联席CTO丁琰分享

训具身模型遇到的很多问题,在数据采集时就已经注定了丨鹿明联席CTO丁琰分享 衡宇 2026-01-08 20:...
AI Coding新王登场!MiniMax M2.1拿下多语言编程SOTA

AI Coding新王登场!MiniMax M2.1拿下多语言编程SOTA

AI C++oding新王登场!MiniMax M2.1拿下多语言编程SOTA 克雷西 2025-12-24 ...
最新评论
ufabet ufabet มีเกมให้เลือกเล่นมากมาย: เกมเดิมพันหลากหลาย ครบทุกค่ายดัง
tornado crypto mixer tornado crypto mixer Discover the power of privacy with TornadoCash! Learn how this decentralized mixer ensures your transactions remain confidential.
ดูบอลสด ดูบอลสด Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
Obrazy Sztuka Nowoczesna Obrazy Sztuka Nowoczesna Thank you for this wonderful contribution to the topic. Your ability to explain complex ideas simply is admirable.
ufabet ufabet Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
ufabet ufabet You’re so awesome! I don’t believe I have read a single thing like that before. So great to find someone with some original thoughts on this topic. Really.. thank you for starting this up. This website is something that is needed on the internet, someone with a little originality!
ufabet ufabet Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
热评文章
樱智α·医疗可信平台全新发布,北电数智与中日友好医院联合打造

樱智α·医疗可信平台全新发布,北电数智与中日友好医院联合打造

樱智α·医疗可信平台全新发布,北电数智与中日友好医院联合打造 十三 2026-01-04 14:02:42 来...
OpenAI推理第一人离职,7年打造了o3/o1/GPT-4/Codex

OpenAI推理第一人离职,7年打造了o3/o1/GPT-4/Codex

OpenAI推理第一人离职,7年打造了o3/o1/GPT-4/Codex 衡宇 2026-01-06 13:0...
老黄All in物理AI!最新GPU性能5倍提升,还砸掉了智驾门槛

老黄All in物理AI!最新GPU性能5倍提升,还砸掉了智驾门槛

老黄All in物理AI!最新GPU性能5倍提升,还砸掉了智驾门槛 闻乐 2026-01-06 09:09:0...
悲报!Stack Overflow彻底凉了,比18年前上线首月问题数量还少

悲报!Stack Overflow彻底凉了,比18年前上线首月问题数量还少

悲报!Stack Overflow彻底凉了,比18年前上线首月问题数量还少 闻乐 2026-01-05 19:...