新智元报道
编辑:拉燕
【新智元导读】马库斯最新点评GPT-5,OpenAI并没有多少优势。如果GPT-5需要新的范式,大家会回到同一水平线上。
有关GPT-5的消息最近又火起来了。
从最一开始的爆料,说OpenAI正在秘密训练GPT-5,到后来Sam Altman澄清;再到后来说需要多少张H100 GPU来训练GPT-5,DeepMind的CEO Suleyman采访「实锤」OpenAI正在秘密训练GPT-5。
然后又是新一轮的猜测。
中间还穿插了Altman的大胆预测,什么GPT-10会在2030年前出现,超过全人类的智慧总和,是真正的AGI云云。
再到最近OpenAI名叫Gobi的多模态模型,强势叫板谷歌的Gimini模型,两家巨头的竞争一触即发。
一时间,有关大语言模型的最新进展成了圈内最热门的话题。
套用一句古诗词,「犹抱琵琶半遮面」来形容,还挺贴切的。就是不知道,什么时候能真的「千呼万唤始出来」。
时间线回顾
今天要聊的内容和GPT-5直接相关,是咱们的老朋友Gary Marcus的一篇分析。
核心观点就一句话:GPT-4到5,不是光扩大模型规模那么简单,是整个AI范式的变化。而从这一点来看,开发出GPT-4的OpenAI并不一定是先到达5的那一家公司。
换句话说,当范式需要变革的时候,之前的积累可迁移性不大。
不过在走进Marcus的观点之前,我们还是简要复习一下最近有关传说中的GPT-5都发生什么了,舆论场都说了些什么。
一开始是OpenAI的联合创始人Karpathy发推表示,H100是巨头们追捧的热门,大家都关心这东西谁有,有多少。
然后就是一大波讨论,各家公司需要多少张H100 GPU来训练。
大概就是这样。
-
GPT-4可能在大约10000-25000张A100上进行了训练
-
Meta大约21000 A100
-
Tesla大约7000 A100
-
Stability AI大约5000 A100
- Falcon-40B在384个A100上进行了训练
有关这个,马斯克也参与了讨论,根据马斯克的说法,GPT-5的训练可能需要30000到50000个H100。
此前,摩根士丹利也说过类似的预测,不过总体数量要比马斯克说的少一点,大概是25000个GPU。
当然这波把GPT-5放到台面上去聊,肯定少不了Sam Altman出来辟谣,表明OpenAI没在训练GPT-5.
有大胆的网友猜测,OpenAI之所以否认,很有可能只是把下一代模型的名字给改了,并不叫GPT-5而已。
反正根据Sam Altman的说法,正是因为GPU的数量不足,才让很多计划被耽搁了。甚至还表示,不希望太多人使用GPT-4。
整个业内对GPU的渴求都是如此。据统计,所有科技巨头所需的GPU加起来,得有个43万张还要多。这可是一笔天文数字的money,得差不多150亿美元。
但通过GPU的用量来倒推GPT-5有点太迂回了,于是DeepMind的创始人Suleyman直接在采访中「锤」了,表示OpenAI就是在秘密训练GPT-5,别藏了。
当然在完整的访谈中,Suleyman还聊了不少业内大八卦,比方说在和OpenAI的竞争中,DeepMind为啥就落后了,明明时间上也没滞后太多。
还有不少内部消息,比如当时谷歌收购的时候发生了什么。但这些跟GPT-5怎么着关系就不大了,有兴趣的朋友可以去自行了解。
总而言之,这波是业内大佬下场聊GPT-5的最新进展,让大伙不禁疑云陡起。
在这之后,Sam Altman在一场一对一连线中又表示,「我觉得2030年之前,AGI要出现,叫GPT-10,超过全人类的智慧总和。」
一方面大胆预测,一方面否认在训练GPT-5,这让别人很难真正知道OpenAI在做些什么。
在这场连线中,Altman设想了很多属于未来的图景。比如他自己怎么理解AGI,什么时候会出现AGI,真出现AGI了OpenAI会怎么办,全人类又该怎么办。
不过就实际进展来说,Altman是这么规划的,「我和公司中的员工说,我们的目标就是每12个月能让我们的原型产品性能提升10%。」
「如果把这个目标设定到20%可能就会有些过高了。」
这算是个具体安排。但是10%、20%和GPT-5之间的联系又在哪,也没说得很清楚。
最有含金量的还是下面这个——OpenAI的Gobi多模态模型。
重点在于谷歌和OpenAI之间的白热化竞争,到了哪个阶段。
说Gobi之前,先得说说GPT-vision。这一代模型就很厉害了。拍个草图照片,直接发给GPT,网站分分钟给你做出来。
写代码那更不用说了。
而GPT-vision完了,OpenAI才有可能会推出更强大的多模态大模型,代号为Gobi。
跟GPT-4不同,Gobi从一开始就是按多模态模型构建的。
这也让围观群众的兴趣一下被勾起来了——Gobi就是传说中的GPT-5吗?
当然现在我们还不知道Gobi训练到哪一步了,也没有确切消息。
而Suleyman还是坚定地认为,Sam Altman最近说过他们没有训练GPT-5,可能没有说实话。
Marcus观点
开宗明义,Marcus首先表示,很有可能,在科技史上,没有任何一款预发布的产品(iPhone可能是个例外)比 GPT-5被寄予了更多的期望。
这不仅仅是因为消费者对它的热捧,也不仅仅是因为一大批企业正计划着围绕它白手起家,甚至就连有些外交政策也是围绕GPT-5制定的。
此外,GPT-5的问世也可能加剧刚刚进一步升级的芯片战争。
Marcus表示,还有人专门针对 GPT-5 的预期规模模型,要求其暂停生产。
当然也是有不少人非常乐观的,有一些人想象,GPT-5可能会消除,或者至少是极大地消除人们对现有模型的许多担忧,比如它们的不可靠、它们的偏见倾向以及它们倾诉权威性废话的倾向。
但Marcus认为,自己从来都不清楚,仅仅建立一个更大的模型是否就能真正解决这些问题。
今天,有国外媒体爆料称,OpenAI的另一个项目Arrakis,旨在制造更小、更高效的模型,但由于没有达到预期目标而被高层取消。
Marcu表示,我们几乎所有人都认为,GPT-4之后会尽快推出GPT-5,而通常想象中的GPT-5要比GPT-4强大得多,所以Sam当初否认的时候让大伙大吃一惊。
人们对此有很多猜测,比方说上面提到的GPU的问题,OpenAI手上可能没有足够的现金来训练这些模型(这些模型的训练成本是出了名的高)。
但话又说回来了,OpenAI的资金充裕程度几乎不亚于任何一家初创公司。对于一家刚刚融资100亿美元的公司来说,即使进行5亿美元的训练也不是不可能。
另一种说法是,OpenAI 意识到,无论是训练模型还是运行模型,成本都将非常高昂,而且他们不确定能否在这些成本下盈利。
这么说好像有点道理。
第三种说法,也是我Marcus的看法是,在Altman上半年5月份演讲的时候,OpenAI就已经进行过一些概念验证方面的测试了,但他们对得到的结果并不满意。
最后他们的结论可能是这样:如果GPT-5只是GPT-4的放大版而已的话,那么它将无法满足预期,和预设的目标差的还远。
如果结果只会令人失望甚至像个笑话一样,那么训练GPT-5就不值得花费数亿美元。
事实上,LeCun也是这么个思路。
GPT从4到5,不仅仅是4plus那么简单。4到5应该是划时代的那种。
这里需要的就是全新的范式,而不是单纯扩大模型的规模。
所以说,就范式上的变革来讲,当然还是越有钱的公司越有可能实现这个目标。但区别在于,不一定是OpenAI了。因为范式的变革是全新的赛道,过往的经验或者积累并不一定能派上多少用场。
同样,从经济的角度来讲,如果真如Marcus所言,那么GPT-5的开发就相当于被无限期的推迟了。谁也不知道新技术何时到来。
就好像,现在新能源汽车普遍续航几百公里,想要续航上千,就需要全新的电池技术。而新技术由谁来突破,往往除了经验、资金外,可能还需要那么一点点运气,和机缘。
但不管怎么说,如果Marcus想的是对的,那么未来有关GPT-5的各种商业价值想必会缩水不少。
参考资料:https://garymarcus.substack.com/p/what-if-gpt-5-didnt-meet-expectations