OpenAI的Weak-to-Strong在说什么

1,118次阅读
没有评论

卷友们好,我是rumor。

前阵子OpenAI新成立的SuperAlignment放出了他们的第一篇工作[1],虽然没有带来太多震撼,只是验证了一个简单的直觉:用弱一点的模型标注数据,精调更强的基模型,得到的效果好于弱模型本身

但通过上面的结论,就可以推断出:用人类标注的数据,精调强于人类的基模型,就能超越人类了

OpenAI的Weak-to-Strong在说什么

这就是OpenAI的风格,论文看着也没说啥,只是说了一个小规律,但如果把这个小规律scale起来,就大力出奇迹了。

不过这篇文章跟之前SuperAlignment放出的计划[2]还是有些区别,也没我预期那么fancy(我不配),下面先简要介绍下这篇文章的重点结论,再聊下个人观后感。

Weak-to-Strong讲了啥

这篇文章主要是验证:用弱模型的输出训强基座,是否能产生大于弱模型的效果?

作者的做法很简单:

  1. 用监督数据训一个弱模型,作为基线
  2. 用弱模型产生label,训练强模型
  3. 用监督数据训strong模型,作为天花板

在NLP任务上,得到的效果很理想,精调出的模型好于弱模型,且效果会随着弱模型尺寸、强模型尺寸的提升而提升。

OpenAI的Weak-to-Strong在说什么

但问题马上就来了,在chess puzzles、reward modeling这两个任务上效果并不理想,效果有可能不升或者下降

OpenAI的Weak-to-Strong在说什么

对于chess任务,可以发现图上弱模型和强模型计算量差距很大时有下降,因此作者尝试了bootstrapping的方法,在由弱到强的一系列模型上进行逐步精调。比如先用弱模型训稍强的M1,再用M1作为弱模型训更强的M2。这样做可以显著提升chess任务的表现,但对于NLP或RM任务并没有提升:

OpenAI的Weak-to-Strong在说什么

那对于RM任务怎么办呢?作者认为RM的泛化不好主要是因为强模型会拟合弱模型的错误label,因此加了一个额外loss,核心思想是当强模型对于和精调label不一致的结果很置信时,用模型自己置信的结果。增加这个loss之后RM任务有了很大改善:

OpenAI的Weak-to-Strong在说什么

提出上述两种优化Weak-to-Strong泛化能力的方法后,作者进一步分析了这种设置下的两个主要问题:

  1. 越强的模型约会模仿弱监督的错误:除了增加额外的loss,也可以通过early stop或正则化方法来规避。
  2. 是否能激发某种能力取决于基模型:比如某些任务只经过prompting就可以表现很好,所以某能力是否被激发取决于基模型是否具备该能力,如果没具备也可以有提升的犯法,比如作者提前用强模型在RM数据上进行LM精调,之后再精调排序,效果能提升10-20%。

当然,这篇文章只是一次模拟,最终能否做出超越人类的模型还有待验证。不过作者在最后给出了他们认为重要的几个方向:

  1. 模拟环境设置:怎样规避强模型拟合错误结果、解决预训练的数据泄露等
  2. 规模化的方法:现在的实验依赖ground truth,无法规模化,最理想是找到无监督的方法
  3. 科学的理解:上述只是一些实验结果,这些方法为什么有效、什么情况有效都需要更深入的理解

问题转嫁?

在OpenAI今年8月的放出的计划中,核心思想是训练出一个人类水平的模型,让该模型训练出强于人类的模型,属于延续Alignment的思想,用强数据(人类)训弱模型(GPT3)。而从这篇文章来看,思路直接反转了,用弱数据(人类)训强模型。

那么问题来了,到底是哪个时刻突破了人类水平?

首先从已有的经验来看,核心逻辑是一样的,智能大概率来源于计算量的scaling,即数据+模型尺寸的共同增长。

OpenAI在8月份的计划是在对齐阶段超越人类:

  1. 让人类水平的AI研究器自动规划实验、提供监督信号训练模型
  2. 把上述流程规模化,同时AI研究器本身也是一个模型,让它和新模型相互迭代,在某一时刻达到计算量临界点,超越人类

而这篇文章的设定则就变成了在预训练阶段超越人类,再用人类数据去把强基座对齐,即使label不一定全对,但对齐完也能超越人类。

到底是先有更强的对齐模型,还是更强的基模型再对齐?这两个方案的差别还是挺大的,一个是对齐团队的工作,一个是预训练团队的工作。

如果OpenAI选择后者也可以理解,一方面预训练的scaling law他们已经做的很好了,如何训出更强的基座是更promising的,之后难点就在于高质量合成数据和计算效率的提升了。另一方面RLHF确实有它自己的难点,RM的overoptimization无法避免,需要持续的人工介入,影响迭代效率。

后续怎么做?

如果一切都顺利发展,真的能训出一个强基座,得到超越人类的对齐模型,那后续如何持续迭代,才能越来越好?

这个问题的难点在于评估,按照文章的结论,最naive的做法就是找一批较难的prompt,人工给一些还行的结果,在强基座上精调一把。然后呢?我们怎么知道模型真的超越了人类表现?超越了多少?后续继续迭代如何能确定每次迭代都在提升?

作者可能也是出于这样的考虑,所以才在RM任务上尝试Weak-to-Strong的泛化。如果用强基座训出超越人类的奖励模型,也能指导出超越人类的对齐模型,同时能给出模型的大概效果。但这里也有两个问题:

  1. 训练用的奖励模型会有overoptimization,打分虚高:可以用更强的基座训出RM v2,来给出更客观的分数
  2. 如何确认训练的RM效果足够好:可能需要研究RM的scaling law,根据训练数据、基模型预测RM的表现,虽然也可以研究生成模型的scaling law,但RM的预测直觉上更加容易

注:以上是个人开的脑洞

总结

虽然SuperAlignment的进展看起来不是很大,但OpenAI把这些问题拿出来讨论还是很感人的。训出强于人类的基模型确实是更加promising的方向,不急不急,从GPT1到GPT4不也就五年而已。

参考资料

[1]

WEAK-TO-STRONG GENERALIZATION: ELICITING STRONG CAPABILITIES WITH WEAK SUPERVISION: https://cdn.openai.com/papers/weak-to-strong-generalization.pdf

[2]

Our approach to alignment research: https://openai.com/blog/our-approach-to-alignment-research


OpenAI的Weak-to-Strong在说什么

我是朋克又极客的AI算法小姐姐rumor北航本硕,NLP算法工程师,谷歌开发者专家欢迎关注我,带你学习带你肝

一起在人工智能时代旋转跳跃眨巴眼

「给我一个强基模型,我也行」OpenAI的Weak-to-Strong在说什么

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 0
评论(没有评论)

文心AIGC

2023 年 12 月
 123
45678910
11121314151617
18192021222324
25262728293031
文心AIGC
文心AIGC
人工智能ChatGPT,AIGC指利用人工智能技术来生成内容,其中包括文字、语音、代码、图像、视频、机器人动作等等。被认为是继PGC、UGC之后的新型内容创作方式。AIGC作为元宇宙的新方向,近几年迭代速度呈现指数级爆发,谷歌、Meta、百度等平台型巨头持续布局
文章搜索
热门文章
潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026

潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026

潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026 Jay 2025-12-22 09...
面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25

面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25

面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25 鹭羽 2025-12-13 22:37...
钉钉又发新版本!把 AI 搬进每一次对话和会议

钉钉又发新版本!把 AI 搬进每一次对话和会议

钉钉又发新版本!把 AI 搬进每一次对话和会议 梦晨 2025-12-11 15:33:51 来源:量子位 A...
商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1

商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1

商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1 十三 2025-12-15 14:13:14 ...
跳过“逐字生成”!蚂蚁集团赵俊博:扩散模型让我们能直接修改Token | MEET2026

跳过“逐字生成”!蚂蚁集团赵俊博:扩散模型让我们能直接修改Token | MEET2026

跳过“逐字生成”!蚂蚁集团赵俊博:扩散模型让我们能直接修改Token | MEET2026 一水 2025-1...
最新评论
ufabet ufabet มีเกมให้เลือกเล่นมากมาย: เกมเดิมพันหลากหลาย ครบทุกค่ายดัง
tornado crypto mixer tornado crypto mixer Discover the power of privacy with TornadoCash! Learn how this decentralized mixer ensures your transactions remain confidential.
ดูบอลสด ดูบอลสด Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
Obrazy Sztuka Nowoczesna Obrazy Sztuka Nowoczesna Thank you for this wonderful contribution to the topic. Your ability to explain complex ideas simply is admirable.
ufabet ufabet Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
ufabet ufabet You’re so awesome! I don’t believe I have read a single thing like that before. So great to find someone with some original thoughts on this topic. Really.. thank you for starting this up. This website is something that is needed on the internet, someone with a little originality!
ufabet ufabet Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
热评文章
预见未来:96位前沿先锋超万字核心观点总结,抢抓未来产业新高地

预见未来:96位前沿先锋超万字核心观点总结,抢抓未来产业新高地

预见未来:96位前沿先锋超万字核心观点总结,抢抓未来产业新高地 henry 2025-12-11 10:27:...
Meta公开抄阿里Qwen作业,还闭源了…

Meta公开抄阿里Qwen作业,还闭源了…

Meta公开抄阿里Qwen作业,还闭源了… Jay 2025-12-11 11:48:25 来源:量子位 Ja...
MEET2026挤爆了,AI圈今年最该听的20+场演讲&对谈都在这

MEET2026挤爆了,AI圈今年最该听的20+场演讲&对谈都在这

MEET2026挤爆了,AI圈今年最该听的20+场演讲&对谈都在这 西风 2025-12-11 15:...
钉钉又发新版本!把 AI 搬进每一次对话和会议

钉钉又发新版本!把 AI 搬进每一次对话和会议

钉钉又发新版本!把 AI 搬进每一次对话和会议 梦晨 2025-12-11 15:33:51 来源:量子位 A...