还在用大模型抖机灵?赶紧建设我们自己的开源生态才是正事|对话实录

566次阅读
没有评论

7月7日下午,在世界人工智能大会上阿里云举办的《MaaS:以模型为中心的AI开发新范式》主题论坛中,进行了一场以《大模型开源生态与青年开发者》为议题的圆桌论坛,品玩创始人兼C++EO骆轶航、封神榜大模型的负责人张家兴、香港科技大学助理教授袁彬航、澜州科技合伙人李京梅、达摩院高级算法专家林俊旸、创新工场联合CEO兼管理合伙人汪华先生以及Create@AI Hackathon 冠军代表王宇一起讨论了模型生态的现状和未来。

以下为对话实录。

还在用大模型抖机灵?赶紧建设我们自己的开源生态才是正事|对话实录

骆轶航:谢谢大家,特别高兴今天能有机会来主持这个环节。为什么?过去几个月我主持过很多场关于大语言模型的活动了,见了很多做模型的人,但基本上没有怎么去跟做生态,开发者、做生态体系的人去聊,过去几个月是这样的一个情况。

我刚才看到那么多青年AI开发者,看到新一代基于大语言模型的开发者,还有我们前面谈到大语言模型在各个行业的应用,我觉得是一个特别好的场景,能够回击最近很多媒体和舆论关于所谓的大语言模型热退场了的言论。

他们看到 ChatGPT的流量下来了,就说整个语言模型退场了,这是他们现在的一个看法,确实可能不像过去几个月有那么多的人在用大语言模型搞脑筋急转弯,但会有更多的人在用大模型、干千行百业都能够去做的事情,我觉得这可能是一个差别。

今天台上我们的各类代表凑齐了,有本身做赋能各个行业的这种垂直模型的,有本身做开源通用大语言模型的,有在达摩院基于Model Scope,从事算法和搭建平台的,有学界的,同时也探索学界跟产业界结合的朋友。还有像 VC界现在在看AGI的,以及开发者。人凑齐才能够聊所谓的生态。

我们今天开场,就从一个问题开始去聊,各位,今天这一场我们讲的是基于MaaS的这个问题。大家用自己的方式理解一下,用一句话来理解MaaS是什么,以及MaaS跟开源的关系是什么?我们每个人用自己的方式讲一下对这个事的理解?

袁彬航:对于这个问题,我认为以大语言模型为中心,针对它的训练和推理,提供各种各样的算力,服务自动化的配置以及版本控制的这样的一套自动API,来为各个下游的产业来赋能的一个体系架构

张家兴:大模型一直都有,大模型去触达我们开发者的方式也有很多,但我一直觉得MaaS这种方式,就是Model Scope这样的方式,它是属于门槛最低,效果最好,也最能够快速构建应用的一个方式。

汪华:接下来一个时代的话,大模型肯定要驱动万事万物的,是整个社会的驱动器和改变者,而MaaS就是下个时代的水电煤,下个时代的基础设施,而开发者和开源社区就是驾驭我们下一代的基础设施的一群最核心的人。

还在用大模型抖机灵?赶紧建设我们自己的开源生态才是正事|对话实录

骆轶航:你是不是想说是它是类似于iOS或者Android这样的platform?不止,对吧?

汪华:要大十倍。

李京梅:我认为得扣一个题,我认为MaaS其实是开发者和人工智能交界的一种交互方式。

林俊旸:各位老师已经讲得非常好了。我个人理解的话, MaaS本质上也是由来已久的,只不过今天AI的模型比以往要强得非常多,确实是实实在在的赋能我们的开发者,去产生更加有趣的一些应用,甚至有可能在改革行业。这可能是我对MaaS当前的一个理解吧。

骆轶航:王宇你对MaaS有理解吗?从你的角度,你应该不太关心这个词是什么概念,对吗?

王宇:这个问题问得很好,昨天我跟一个调酒师在聊的时候,我想向他解释 Model是什么?我就尝试用他的语言去解释,他刚好那个时候在调酒,我就跟他说,其实Model就是你用的底酒,鸡尾酒上面加其他的那些配料,是我们开发者去需要关心的事情。

骆轶航:好,这个是我自从知道MaaS这个词以来听到的最有意思的解释方式。这个是我们去聊所谓MaaS,Model本身是什么的这样的一个问题。我们聊完这个问题,我们去聊开源。有一个问题,我给各位的提纲上都没有准备,但我特别想问这里的几个同学,汪总可以待会儿再去讲这个问题。

我相信各位实际上都有去跟开源直接打交道的一些经历,包括像封神榜,姜子牙是发布了非常完整的语料集和训练的这种子集,孟子的基础模型实际上也有一部分,我在HF上,我是看到在魔搭上也有看到,我们也开源了自己的东西。

我上午跟一位大佬聊天的时候,我们聊到的一个问题,准备下午在这扔出来。各位做开源的动机是什么?做事情肯定是有动机的,有人是为了跟风,有人是为了收获点什么。各位的动机是什么?参与开展的动机是什么?

袁彬航:我们在从事科学研究的时候,在一个黑盒的基础上很难去发现任何scientific inside。但是开源的系统对于我们来讲是全开放的情况下,让我们能够知道更多的细节,能够真正的把人类的知识的边界往前推进。开源精神在科学界还是还是非常重要的。

张家兴:因为我们做封神榜大模型已经做了两年了,我谈谈我这边的感受。

第一点我想请大家区分一下开源模型跟开源代码的区别,因为当年很多做开源代码,它是会强调一个大家共建这样一个东西,你开源出来就有更多人能够参与到到这个代码中。

开源模型它呈现的是不一样趋势,基本上只有开源的这个人自己在这训练这个代码,很少其他人再能贡献到这个模型里。这样开源就变成了一个纯粹为大家做贡献的这样一件事,所以说它具有一个更强的奉献精神。

那为什么说这群人还要做开源,每个人有不同的答案。从我的角度来说,最初我们建研究院,做大模型这个事儿,确实是想为 AI业界做点事情。

2021年的时候英文开源的模型很多,各种语言的,但中文非常少,当时做过统计HuggingFace上面,所有的开源模型里中文占的比例只有1%。这是去年年底的数据,最近没有再看,但我估计也差不太多。因为上边模型总模型量非常非常大,大概十万个模型,中文就1000个左右。

显然这里有个水位差,我们要补全水位差。所以我们整个封神榜开源模型打的就是中文开源这件事情,这是当时的初衷。到现在来说我们确实不需要那么多模型了,对吧?

我们只是需要一些少数的通用的大模型就可以了,这时我们推出了姜子牙系列模型。这时我们的想法又跟以前不太一样了。

之后我们还推出了一系列的专业能力的模型,比如说写代码的、写作的、阅读的等等,你说写代码大家做的很好,它同样有个中文能力的问题,尽管说外面开源很多很热闹,但很多依然不是中文的。从我们角度来说还是围绕中文,我们也是希望这方面做些努力,帮助到我们中文认知智能这个领域。

李京梅:孟子大模型成立时间不长,两年,我们在21年10月的时候就已经开始去开源了一些模型。当然跟家兴讲的一样,开源模型跟开源代码不太一样,他并不指望别人去给你贡献代码。

去年的时候,阿里的魔搭最开始上线的时候,澜州我们的孟子大模型系列当时作为第一批的模型贡献者就已经上了社区。要说一点形而上的东西,的确技术人肯定是有技术情怀,自己做的东西是希望有技术影响力,让别人能够用到。

从社区来讲,我们没有贡献代码这样的一种方式,但大模型本身是属于人工智能整体的范畴,所以从数据还有算力、算法各方面,还是希望大家能够互通有无。还是有共享的成分在里头,希望大家一起把模型的这种技术社区可以一起做大,你用的什么数据?你的算法?你用了以后效果如何?大家给你一个怎样的反馈,包括像魔搭还能有阿里云的一些具体的工具平台跟资源,这也是很好的。

最终我觉得还是大家一起把这个模型做的效果更好,能够互通有无,把生态整体建起来,对整个模型社区来讲,是一个最重要的事情。

骆轶航:还是有共建的因素,至少是氛围上。

李京梅:是的,虽然它的方式跟以前写代码不一样,但是最终的目的和大家互通有无的机制和这个氛围还是一样的。

骆轶航:Model Scope的参与者,就是我们本身这件事的动机是什么?是要做一个中国版的HuggingFace吗?

汪华:我自己本身是基础模型的研发者,本身也是做着开源。我们当时做的时候会发现自己开源出去的话,自己的工作质量是在不断提升的。因为可以看到这些外部的开发者,他会给我们很好的一些建议,他也会看到我们的开源,反而帮助我们做提升。

我们自己也获得很高的成就感,在做这个过程当中也发现,原来的开源其实会给很多开发者带来很多不便的地方。

如果有一个统一的平台去做这件事情就会比较好,这也是魔搭去做模型开放社区,去做模型服务的这样的一个初衷。我个人来看不是说会不会成为中国的HuggingFace这样的一个问题,而是魔搭自己本身做好这个模型服务,能让更多人享受到我们做开源得到的成就感,能让更多人的工作做得更好,大家一起去推动 AI的发展,这件事情是更加重要的。

骆轶航:谢谢。王宇讲讲你跟开源的关系。

王宇:我们团队有一个小伙伴,他是一个开源社区的工程师,开发者生态里面其实对开源这件事敬畏心是很强的,所以 Model Scope包括澜州这些企业,他们现在都是在做一些非常了不起的事情。

骆轶航:好,谢谢,现在有请王总,我们国内现在大语言模型投资很集中,现在大家都在报道,像非常头部的这10家公司去靠拢。这10家没有一个,他们可能在开源领域会有一些动作,包括他们可能会这样去做,本身其实开源的工具,开源的社区,和提供一些部署工具,开发工具,这样一些简易的部署和开发工具这种环境,在中国似乎从来没有成为过看AGI的投资人的投资标的,几乎没有,我们这块没有人投类似像databricks这样的东西,或投的不多,就在中国本土做的,也没有什么人再去投,当然就投向量数据库的人也不多,你怎么看开源社区或者开源的工具本身的投资价值?

汪华:比如说我们以创新工场自己为例,我们自己还是蛮积极的在看开源社区和开源工具的。

我自己首先是比较相信在我刚才说将来大模型要引爆万事万物,第二我也不认为开源的商业模式会有任何问题,因为真正将来有价值的实际上是这个场景。

如果放在3到5年之后,现在大家觉得大模型本身很值钱,现在包括training的各种各样的infer的工具并行训练并行部署的工具很值钱,实际上两三年之后这个东西会变得commodity,将来更重要的是场景,所有的这些开源社区如果做了非常好的个人工具的话,他们做的 contribution的话,他们将来是可以通过无论是SaaS还是各种各样的服务去支撑将来几百上千个行业里面的应用来创造价值的,现在因为开源是因为整个应用现在还比较窄,所以你感觉好像我现在做开源都只是在贡献,是要靠奉献。但实际等到几年之后,随着应用越来越扩展,会看到效果。

骆轶航:几年?因为硅谷的那些APP都已经出来了。

汪华:我个人的判断实际上是三年。三年制判断其实挺简单,现在是第一波浪潮,大家都在做大模型和非常复杂的一些应用。但现在有几个问题, 第一是模型性能还要继续变强,比如说各方面的推理能力多模态之类的。

第二更关键的是大概需要2到3年的时间,让 Inference serving cost降到我个人觉得比较保守的估计1/20,然后比较乐观的估计是1/100。

骆轶航:这是通过不断的infra的改变和提升?

汪华:对,因为现在的infra本身实际上相当于是把research的东西直接拿出来serve用户了,里面的工程优化实际上是非常少的,光过去几个月内的论文各方面都已经提高了两三倍,工程的优化有四五倍的空间,如果有新一代的硬件,现在的A100直接做serving并不是最优化的,专门Special Design的硬件其实也有四五倍的空间,保守估计20倍。还不包括端侧渲染或者一些学术上对serving架构的更大突破。

骆轶航:一些新的突破。在硅谷的时候我们大家也在讨论,像OpenAI这个黑盒子,导致ChatGPT它有多大的这种工程优化的空间。它这里面我们是不知道的,外部的人是不知道的。

汪华:OpenAI自己最近就降了10倍的这些,其实我不说其他,直接用C++手搓扩大的算子。就能有四五倍的提升,所以做算子融合这些,现在的东西应用不是特别广泛,比如说为什么只能做生产力,为什么我日常的娱乐生活不能都用用它去做,因为太贵了,不光是模型性能好坏的问题,GPT-4其实性能很强的。

如果降到现在的1%呢?将来还有更重要的点,现在是技术爆发点,将来还有一个点叫普惠爆发点,普惠点的时候,我们这些开源社区开发的框架就不只是给开发者在用,实际上会应用在千百亿、千万人以上的应用或者生活中。

其实现在的很多高在于Data时代,云计算时代,其实很多的开源框架最后都发展成了非常高价值的应用,而大模型只会比这个价值更高10倍。

骆轶航:好,就借着刚才汪华总的事,我要有请Jason,你看刚才李总也不是完全同意所谓做贡献的这件事,我觉得做贡献的精神很重要。

汪华:但我相信,只要做贡献一定有回报。

骆轶航:我们也肯定idea做的那些贡献,现在我们有点着急想让你讲一讲回报,眼下我们的东西出去,当做贡献做出去,你们收到了哪些比较好的反馈和哪些非常有意思的东西,这个是第一个,第二个其实刚才汪华总讲到未来很多事情 serving cost降下来,training cost降下来,未来可以有很多应用去诞生,AGI应用去诞生,你们要用你们的基础模型,你们的团队的姜子牙的模型去激发 AGI应用的迸发,现在来说是不是有点早,或者你们准备怎么去做?

张家兴:好,第一个是从我们整个开源之后得到的一些反馈,还是令我比较欣慰的,大家关注新闻的话,就在这个星期初的时候,北大发布了ChatLaw模型,法律模型,也是挺受关注的,这里面非常明确的提出了他们使用的是我们的子牙LLaMA-13B这个模型。

因为这件事情首先来说是给我们很大的信心,说明我们这条路走的是对的,大家如果了解整个子牙LLaMA-13B的训练过程,大家知道LLaMA他对中文支持的并不好,我们为了让他对中文支持的好,我们在LLaMA基础上进行了10%的继续训练,用了LLaMA训练代价的10%进行了一次继续训练,然后推翻了LLaMA上面之前的所有的中文的部分,重建了中文能力。

我们还算是LLaMA系的模型,在整个LLaMA系模型里面确实是属于中文支持最好的。

确实也看到了一个很好的我们做了这一棒出来之后,终于有人接力棒继续往下走了,接着力往下走,我们把中文能力给做好了。

接续有人就在领域里边,在法律领域里边,因为它是纯中文的对吧?它就是判案子,那模型就判案子用的,能继续往下走。这让我们感觉到我们也都讨论到,我们做模型的这些人,实际上得到的回报是很有限的,并不是一个初级东西大家共建,我们只能说初级东西别人在基于我们在做,但是大家一起合起来就把模型的树给长大了,实际上是有人做基础的,有人在上面在各个领域各个能力的扩充。对这棵树每个人都只做中间的一段或者一个枝丫,最终这棵大树是很大的,所以大家一起建造的是这样一个build的过程。这是对我们一个非常好的反馈。从另外一个角度来说,我们团队也在探索商业化的过程,说点实际的好处就是当我们在接触客户的时候,很多客户直接跟我们说,你们子牙慢慢的在试了,我们已经在试了,效果很不错,而且我们真的是得到很多非常正面反馈,包括国内一些比如说有一些头部的游戏公司,头部的一些做文学IP的公司。

骆轶航:用这个去做文本生成。

张家兴:对,做文本生成、做对话等等这些方面确实表现得很好。对这种情况下,因为我们有商业化目标,并已经证明了我们的能力之后,商业化推广起来相对就会容易很多,这是实实在在的好处,这就是我们子牙这一系列模型开始开源之后的,我们得到很好的反馈。刚才您说的第二个问题让应用去迸发。

骆轶航:怎么让应用去迸发,我们等了几个月,在应用上我们也没看到迸发出什么东西,很着急。

张家兴:这个问题很复杂,非常复杂,我不能完全展开讲,我只能说其中的某些方面,其中一个方面确实是有一些也是跟国内的创业环境是有关系。

另外一个还有一方面,中文的模型它效果确实没有英文的好,背后原因有很多,首先中文的语料它确实不好,我们在训练我们中文模型的时候,大量还是用英文来去帮助中文能力的提升,即使我们在子牙做了10%的继续训练,训练数据里边依然还得有50%是英文的数据,要不然纯靠中文,能力是出不来的,大家现在都这么做,中文确实效果不好。

骆轶航:就是这么干有问题但大家都是这么干。

张家兴:所以现在搞的我们下一步干脆就某些中文的能力单独加强,单独让它越来越好,这样就为了这方面大家就可以基于这个继续思考,我们想向 OpenAI 那样把通用的数据灌进去,各方面能力都强,在英文世界它是它是可以的,但中文世界确实差点。

骆轶航:基于语料的总量和语料的质量两个维度的因素。

张家兴:如果说大模型是基础设施的话,包括刚才说的种种原因,我们底子并不好,所以还是需要再继续努力,这也是一个需要长期的努力,才能把中文的大树模型的树真的建好,建好之后或许后续APP的爆发也许就会到来了。

骆轶航:李总,因为同样的两个本身在做模型的人,第一个讲好处就是无论是开源的好处,还是说现在从这个客户中去获得的一些直接这种feedback的好处,先讲讲这个问题。

李京梅:最主要还是反馈对吧?不管他是夸你的还是骂你的,不太可能做出一个东西就完美了,不迭代了,所以一定是希望有人去反馈,但是像澜州科技主要是做b端的产品跟解决方案,去做落地的, B端的反馈是要有一个时间周期的,没有人用的话,就等于是抱着这个模型,不知道它到底实际落地的时候有什么样的反馈,所以开源的社区一定是一个可以快速得到反馈,让大家先上手用起来,最简单的方式上手用起来。

实际的好处我们已经获得了。在去年,基于我们当时孟子的轻量化金融预渲染模型,跟这个同花顺就已经进行了商务上的一个合作,也完成了我们的当时一个为期三个月左右的项目,也很具体,基于我们这样一个底座的模型,同花顺用他们自己的私域数据进一步的去做继续训练,在他们的一些像爱问财等等背后的一些技术指标,能够针对原来的一些传统NLP的方式,这个指标进行了一个比较大的突破。

我们在一年多以前就按主持人的说法,就已经享受到了一些它的好处,所以我觉得它至少在中国开源社区跟商业化,它并不是一个截然分开的两件事情,其实它是一个很自然的一件事,中国这种大部分的技术人、开发者,本来也不是大部分不是独立于这种公司,还是有很多都是隶属于企业,只是说作为技术人开始的一些情怀驱动,爱好驱动等等做技术选型,先去做一些尝试,但当企业想去做一些价值体现创造去做落地的时候,在开源社区里头获得的这些直接的反馈,一定能够帮助他们去做技术选型。

所以等到去做商业的软件或者是工具或者是产品选型的时候,其实是一个相辅相成的事情,所以这个不是完全割裂开的。

还在用大模型抖机灵?赶紧建设我们自己的开源生态才是正事|对话实录

骆轶航:好谢谢。我们再请袁教授聊一聊,我希望是聊一聊本身开源工具,对于你本身或者包括对于现在整个现在的很多您能够接触到的青年人来说,包括您能够接触到的一些可能在学习研究这个过程当中接触到的一些AI跟垂直细分行业来说,开源大概能够起到一些什么样的作用和帮助?

袁彬航:我认为首先开源也需要,尤其是针对Large language Model的开源,其实是需要有下一代的平台来支持这样的开源架构的。

比如说现在,我个人认为针对比如 Model Scope,不光是一个简单的HuggingFace的国产的替代化,我认为更理想的情况是它有可能会是一个有更多后发优势的这样一个项目,毕竟 MaaS Group背靠阿里云对吧?

作为一个普通的用户来讲,整个这一套模型的部署,我在Together开源社区里有过非常多这样的经验,这对于一个非AI从业者来讲的话,这应该是对他来讲应该是transparent,如果有下一个generation的在一个理想的情况下,我们希望是这个Model Scope对吧?

它既能够弹性的提供这样的算力的支持,又可以去提供一些良好的这种对于模型的版本控制,然后又可以把这些接口更好的暴露给这些用户,如果这些都能够实现的话,对于一个所谓的 AI从业业者来讲,它的去开发和部署的门槛就会进一步降低,这样才有更多的机会来给各种各样的行业来赋能。

骆轶航:对,这个也是我想问的,但我们时间快到了,我准备延长三分钟左右,我一直在思考一个问题,我看现在大家新的成果直接就往HuggingFace上一放,然后顺手往Model Scope上一放,然后Github也有一份包括百川也是这个样子,我们看到的基本都是这样,随着刚才我们讲到,如果更多的AI的应用和开发,刚才王华也讲到这个问题,更多的AI应用开发者进入到群体里面来,包括他们有一些这种no code的东西,no code我个人不太信,但是至少是no code的东西进来,大家去做更多的东西,开发者的门槛应该是往下降的,所以其实是应该有更好的开源社区去支持,这个门槛降低之后,人们去用各种各样的东西。

所以这种情况之下你觉得HuggingFace也好Github也好,它能不能支持,我们为什么现在我们需要有或者我们到底真的需要不需要一个中国自己的open source的这样的一个AI open source platform。我看到Model Scope的时候,就去年我知道这个东西的时候,我还是挺开心的,就是我们自己也有这样的一个事,我们到底真的需要这个事到底是不是一个真命题,还是我们的AI开发者其实大家都能看得懂英文,有条件的话也都能去用就好了,上面还有全球的开发者,我们为什么需要一个自己的platform。

袁彬航:我个人的认为,首先整个HuggingFace以及Github这样一套框架,它还并没有做到最好的对于大模型的适配对吧?

他们是上一个时代,比如说在上一个时代Linux版本的这种的开源工具,这是Github的作用对吧?然后HuggingFace的话,它最主要做的就是一些模型的分享,然后有一些简单的code的share,这其实就是用了Github对吧?但是真正在下一个时代,真正要为这些东西赋能,你是要配备足够的算力的对吧?如果有一个模型,你部署上去,作为一个普通人,我难道我如果要download下来再去。

骆轶航:我都不知道该做什么,像几个月之前的我。

袁彬航:这可能是是一个会把从业者加入的门槛升高的事,对吧?

我们希望把门槛降低,比如说阿里云有比如说有闲置的算力有各种各样的平台的资源,它能够把比如说我部署了一个模型,可以自动我就可以在直接在网页上使用,如果有更多的需求,我再去使用它或者怎样,可能把门槛进一步降低,我认为这样一个平台,它不光是一个简单的国产化替代,它可能更多的会有更多的后发优势来更好的支持生态。

骆轶航:好,因为时间不多了,但是我还是想请这两位再去聊一下这个问题。我们为什么需要一个或者说Model Scope,包括今天其实 Model Scope的 GPT出来,我一看特别像HuggingFace,就Model Scope到底能不能成为就as an alternative of haggingface or other sort of things,要不要成为这个东西,它能不能成为这个东西,作为自己人怎么去看?

林俊旸:当然这是一个非常尖锐的问题。

骆轶航:这个问题超纲了,提纲上没有。

林俊旸:这里可以看到Model Scope我们当时做这件事情相对来说还比较简单,想把这个模型服务给它做起来,我们自己本身达摩院有很多关于中文模型优势的东西,或者是说这么多年的业务积累,有一些特定一些模型,所以我们上面的话有很多优质的一些模型的话,其实在HuggingFace上面的话,很多比如说实际做应用做业务开发的,尤其是国内的。

骆轶航:就是更应用场景。

林俊旸:对,更场景,我们这种模型其实非常多,这是一种优势,但这个不完全是说Model Scope的终局,而是说像刚才袁老师其实给我们提出了一个挑战,是非常切实的,因为Model Scope,比如相比于HuggingFace这样的创业公司来说优势在于背靠相应的云的资源,我们可以基于这样的一些优势去做更多一些事情,比如怎么去帮助大模型的开源做更好,因为大模型的开源,不是仅仅简简单单的把这些人的开源扔上去就完了。

很多的二次开发者今天可以看到他们依然要用自己的数据去训练通用模型,不能满足他们的需求,推理的话也非常的复杂,需要用到很多的资源,怎么样让推理变得更快。

这一些事情的话其实Model Scope的话其实都是要去帮助开发者去做解决,或者是说帮助应用的人去做解决。

另外是因为我们也有很多一些业务的一些经验或者应用的一些经验,这一些也能够通过Model Scope去传达出来,比如有一些对应的解决方案,这种方式Model Scope能让这些用户知道怎么去用这些AI模型,怎么去做大模型,今天Model Scope GPT也是一样的方式,用更简单的方式让你去找到最适合你自己的模型,因为过去你找自己适合的模型,你得根据自己的经验。但今天就可以通过跟Model Scope GPT去进行交互,找到自己最适合的模型。

骆轶航:Model Scope能不能成为一个有全球影响力的AI开源的这样一个平台和一个社区。

林俊旸:这个我相信绝对是可以的,因为我们自己本身也在快速的成长。

骆轶航:今天我看到 databricks,已经放到Model Scope上,我看到现在他在上面,也有托管和部署我觉得挺有意思的。

林俊旸:因为今天达摩院是非常开放的平台,我们是希望大家能够利用Model Scope更好去去推广自己的工作,去让这些工作更好去帮助下游的开发者,这个更多是我们怎么去帮他们做得更好。

骆轶航:所以它是一个global的这样的社区。

林俊旸:要让它更有全球影响力,还是本身功底做扎实,这个最关键。

骆轶航:王宇说实话,平时哪个开源社区用的比较多?

王宇:我本人的话,HuggingFace也没有特别去用它。

骆轶航:没有特别去用的意思是?

王宇:你可以理解成就是没有用。通过这次比赛,了解到了Model Scope,您刚才提到了一个问题就是说有没有必要这样的社区还继续存在,即使在HuggingFace已经有了这样的社区的前提之下,就像刚才大家说的,其实现在Model层面中文的一些模型,还是需要有我们自己的中国人去做。

骆轶航:没有用HuggingFace是因为表现太弱了是吧?

王宇:如果对开发者来说,尤其你是想要做一个能够落地,且未来可以商业化、快速商业化的应用,最快的方式就是调用OpenAI的接口,因为它的效果真的很好。

骆轶航:一个闭源的模型提供给你一个接口,你觉得就已经是一个比HuggingFace那些开源模型都要强的东西了是吗?都要好用的东西了是吗?

王宇:但之后如果使用规模大了的话,是有必要去使用一些开源模型的,这是一个未来可以考虑的事情。

骆轶航:时间到了,最后每个人再讲一句,就对于Model Scope,对于未来5年到10年应用可能会变成什么样子的一个展望,应用可能变成什么样子?

袁彬航:应用变成什么样子,我无法预计,但我觉得一个理想的情况可能是如果对于在Model Scope上管理的整个的这一系列的 open source model都可以自动化地提供像OpenAI那样的MaaS的API,这或许会对于整个 open source community的发展会起到至关重要的作用。

骆轶航:听起来好像也不用3年到5年。

张家兴:MaaS这个东西我是认为它未来应该是模型跟system的一个高度绑定在一起的,它不只是一个我们去大家调API去使用AI能力的同时,它也是一个模型学习的,自我学习的,甚至可能会有新的机器学习范式的这样一个东西。

这才是大家心中真的 MaaS的样子,就是在这个平台上我们可以直接我们可以教会这个模型,他们想干我们想干的任何的事情。

这样的话你可以想象,如果有的话应用对他就我们就只需要这样一个MaaS的平台,我能教会他任何能力,我上面应用就在上面去搭,而不是现在像刚才这个同学讲的,大家都只能去调 ChatGPT 这样一个API自己去训练,其实你没法教会他学会新东西,我认为这是最大的问题。

汪华:还记得10年11年的时候,我们说10年最后移动互联网会是什么样子?其实现在整个社会都被重塑了。其实我对MaaS大模型其实期待是一样的,而且比那个重塑更大,因为到那时候每个人每个企业无论是生产力、娱乐、应用、生活之类的,每个人都有自己的私有模型,每个业务都有私有的私有模型,每个行业都有自己的私有模型。

骆轶航:私有模型其实上就是sort of agent

汪华:sort of agent,将来的话我们每个人都是有无数个agent都为自己在做服务。

李京梅:因为澜州科技我刚才讲过,我们还是非常专注垂直领域专业赛道,所以我特别期待在接下来一段时间,除了大家关注的之前脑筋急转弯这种大模型能力,在企业级应用真的是说能够解决它的这种实时性准确率等等的这些的问题,真的看到大模型进入到企业级应用,能够赋能千行百业,并且真的能够实现价值的突破,跟咱们传统的人工智能或者是说软件应用,所以这个还是非常期待的。

骆轶航:跟传统的人工智能,包括进入到很多传统的领域和行业对去做一些变化,好的。

林俊旸:我还是比较相信CoPilot这样一个理念。它有可能并不仅只是一个简单的模型,它可能是一个 Model组合起来的一个system,就像今天Model Scope GPT展现的。这个工具,它可能会根据你实际的应用化变得复杂,它甚至可能会成为一个系统。我觉得将来如果出现真正意义的AGI的话,它应该是一个super AI system的东西。

王宇:这个问题我跟一个很好的大学朋友讨论过,他给出的答案我觉得很有意思,我不知道他对不对,他当时就在讨论是否之后Model可以作为一个集体决策的一个模型,它能代表整一个比如一个组织一个政府做一些集体性的决策,而且是自动做决策。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy