9月20日,上海人工智能实验室(上海AI实验室)与商汤科技联合香港中文大学和复旦大学正式推出书生·浦语大模型(InternLM)200亿参数版本InternLM-20B,并在阿里云魔搭社区(ModelScope)开源首发。同时,书生·浦语面向大模型研发与应用的全链条工具链全线升级,与InternLM-20B一同继续全面开放,向企业和开发者提供免费商用授权。
浪潮之上,大模型的应用价值日趋受到关注。正如历史上的任何一项新技术,其生命力终究要回归到是否可以广泛落地,为世界带来积极且真实的变化。在此背景下,上海AI实验室联合多家机构推出了中量级参数的InternLM-20B大模型,性能先进且应用便捷,以不足三分之一的参数量,达到了当前被视为开源模型标杆的Llama2-70B的能力水平。
代码库链接:https://github.com/InternLM/InternLM
魔搭社区链接:https://modelscope.cn/organization/Shanghai_AI_Laboratory
自今年6月首次发布以来,书生·浦语已经历多轮升级,在开源社区和产业界产生了广泛影响。
书生·浦语“增强版”:增的不只是量
相比于国内社区之前陆续开源的7B和13B规格的模型,20B量级模型具备更为强大的综合能力,在复杂推理和反思能力上尤为突出,因此可为实际应用带来更有力的性能支持;同时,20B量级模型可在单卡上进行推理,经过低比特量化后,可运行在单块消费级GPU上,因而在实际应用中更为便捷。
InternLM-20B是基于2.3T token预训练语料从头训练的中量级语言大模型。相较于InternLM-7B,训练语料经过了更高水平的多层次清洗,补充了高知识密度和用于强化理解及推理能力的训练数据。因此,在考验语言模型技术水平的理解能力、推理能力、数学能力、编程能力等方面,InternLM-20B都有显著提升。
相比于此前的开源模型,InternLM-20B的能力优势主要体现在:
优异的综合性能。InternLM-20B 具备优异的综合性能,不仅全面领先相近量级的开源模型(包括Llama-33B、Llama2-13B以及国内主流的7B、13B开源模型),并且以不足三分之一的参数量,测评成绩达到了Llama2-70B的水平。
强大的工具调用能力。InternLM-20B拓展了模型的能力边界,实现了大模型与现实场景的有效连接。InternLM-20B支持数十类插件,上万个API功能,在ToolBench评测集上获得了最佳结果,在与ChatGPT的竞赛中,胜率达到63.5%。InternLM-20B还具备代码解释和反思修正能力,为智能体(Agent)的构建提供了良好的技术基础。
更长的语境。通过多阶段训练拓展,InternLM-20B支持16K语境长度,从而更有效地支撑长文理解、长文生成和超长对话。
更安全的价值对齐。相比于之前版本,InternLM-20B在价值对齐上更加安全可靠。在研发训练的过程中,研究团队通过基于SFT(监督微调)和RLHF(基于人类反馈的强化学习方式)两阶段价值对齐,以及专家红队的对抗训练,大幅提高其安全性。当用户带着偏见提问时,模型能够给出正面引导。
全线升级的开源工具、数据体系。书生·浦语开源工具链全线升级,形成了更为完善的工具体系,其中包括预训练框架InternLM-Train、低成本微调框架XTuner、部署推理框架 LMDeploy、评测框架OpenCompass 以及面向场景应用的智能体框架Lagent。书生·浦语工具链将和开源数据平台OpenDataLab构成强大的开源工具及数据体系,共同为学术界和产业界提供全链条的研发与应用支持。
全面升级的全链条工具体系
架构增强:深结构、长语境
过去一段时间,国内机构陆续开源了多个参数量为7B和13B规格的模型,在评测中也取得了不俗的成绩。但研究人员发现,这些模型在适配下游任务,尤其是对准确性和推理能力要求较高的任务时,还存在局限。为了更好地支持这些任务,业界呼唤一个中量级的开源模型,提供更强的理解、推理以及长文生成能力。
在相对有限的参数规模下,研究人员在架构设计时面临重要的取舍——提高模型的深度还是宽度?通过广泛的对照实验,书生·浦语团队发现,更深的模型层数更有利于复杂推理能力的培养。因此在架构设计时,研究人员把模型层数设定为60层,超过7B与13B模型通常采用的32层或者40层设计;同时内部维度保持在5120,处于适中水平。通过架构设计上的新取舍,InternLM-20B在较高计算效率的条件下实现了复杂推理能力的显著提升。
InternLM-20B还支持更长的语境长度。在训练过程中,模型的语境长度分阶段从2K拓展到8K。在推理侧,基于Dynamic NTK技术,把模型推理可支持的语境长度进一步延展到16K。长语境为模型的能力拓展,包括工具调用、代码解释以及反思修正等提供了更大的空间,成为支撑在InternLM-20B之上打造智能体(Agent)的关键技术基础。
综合性能增强:多个评测中领先
基于OpenCompass大模型评测平台,研究人员在涵盖语言、知识、理解、推理和学科能力等五大维度的50个主流评测集上,对InternLM-20B及相近量级的开源模型进行了全面测试比较。评测结果显示,InternLM-20B在全维度上领先于开源13B量级模型,平均成绩不仅明显超越Llama-33B,甚至优于被称为开源模型的标杆Llama2-70B。
基于OpenCompass的InternLM-20B及相近量级开源模型测评结果下表显示了13B及更高参数量的主流开源模型在各个维度上的平均成绩(红色字体为13B-33B量级范围内各能力维度最高评分)。InternLM-20B在语言、知识学科综合评测上都超越Llama2-70B,在推理能力评测上和Llama2-70B持平,而知识方面则仍有一定差距。但在上述所有维度上,InternLM-20B都显著领先主流的13B量级开源模型。
下表在一些有重要影响力的典型数据集上比较了主流开源模型的表现(红色字体为13B-33B参数量级范围内各项测评最佳成绩):
评测结果显示,InternLM-20B在MMLU、C-Eval、AGIEval综合性学科评测中成绩优异,在同量级开源模型中处于领先位置。MMLU被普遍认为是评价一个语言模型综合能力的关键指标,InternLM-20B在MMLU上取得62.05的成绩,接近Llama-65B的水平;而在包含中文学科考试的C-Eval和AGIEval上,InternLM-20B的表现也明显超过了Llama2-70B。
知识问答评测如BoolQ、TriviaQA、NaturalQuestions等,主要评价模型对于事实性知识的掌握能力,在此维度上,InternLM-20B的表现超越13B模型,与Llama-33B各有千秋,但相比于Llama-65B或者Llama2-70B仍有一定差距。
CMRC、CSL、RACE 分别为面向百科知识、科技文献以及学生阅读理解的评测集,而XSum则是挑战性的文献摘要评测——上述评测均为考察大模型理解能力。在理解能力维度,InternLM-20B表现突出,全面超越包括Llama2-70B在内的各个量级的开源模型。
推理,尤其是复杂推理,是语言模型目前面临的常见难题,也是模型能否支撑实际应用的关键能力。上表中所列WinoGrande、GSM-8K、PIQA、BigBench-Hard(BBH)分别考察模型在常识推理、数学推理、物理相关推理以及有挑战性的综合推理方面的能力。InternLM-20B均获得明显超越主流的13B开源模型的成绩,在 WinoGrande、GSM8K和PIQA评测上已非常接近Llama-65B此类重量级模型的推理能力水平。
InternLM-20B的编程能力也有显著提升。在HumanEval和MBPP两个典型评测集上,全面超越了主流13B开源模型、Llama-33B和Llama-65B,接近Llama2-70B的水平。
总体而言,InternLM-20B 在综合能力上全面领先于13B量级的开源模型,在评价推理和编程能力的多个评测集上接近甚至超越Llama-65B,在中文相关的评测上普遍超越 Llama2-70B。
调用工具能力增强:不会也能学
工具调用是拓展大语言模型能力边界的重要手段,也是OpenAI近期推出大模型的重点特性之一。InternLM-20B对话模型支持了日期、天气、旅行、体育等数十个方向的内容输出及上万个不同的 API。
在清华大学等机构联合发布的大模型工具调用评测集ToolBench 中,InternLM-20B和 ChatGPT 相比,达到了63.5%的胜率,在该榜单上取得了最优结果,表现出强大的工具调用能力。
InternLM-20B模型还展现出一定的零样本泛化能力,对于模型在训练过程中并没有学习过一些工具,InternLM-20B也能根据工具描述和用户提问来调用工具完成任务。例如给模型提供一些AI工具,模型可以自己进行规划和推理,完成用户的问题。
InternLM-20B可自主调用工具完成任务
价值观增强:更安全的开源模型
更贴合人类价值观的大语言模型,才有可能更好地充当“人类助手”的角色。InternLM-20B在迭代过程中加入了大量符合人类价值观的数据,研究团队组织相关领域专家对模型进行了多轮红队攻击,大幅提升其安全性。
当用户向InternLM-20B提出带有偏见的问题时,它能够识别出不安全因素,并在回答中给出正确的价值引导。
对话能力增强:语境长度达到16K
InternLM-20B在训练阶段的语境长度分阶段拓展到了8K,同时通过Dynamic NTK等手段将推理时的语境长度拓展到了16K。基于16K的语境长度,InternLM-20B可以有效支持长文理解、长文生成和超长对话。
下面一个例子展示了InternLM-20B的长文理解能力:让大模型阅读某知名咖啡品牌的最新新闻,模型能够准确回答提出的三个问题。
InternLM-20B还具备为长篇论文和报告进行准确摘要提取的能力。研究人员向模型输入经典论文ResNet的Introduction章节,它能较好地写出摘要,准确概括了 ResNet 的核心思想和实验效果。
全链条工具体系再巩固,全面升级
今年7月,上海AI实验室与商汤科技联合高校在正式发布书生·浦语的同时,在业内率先开源了覆盖数据、预训练、微调、部署和评测的全链条工具体系。历经数月升级,书生·浦语全链条开源工具体系巩固升级,并向全社会提供免费商用。
书生·万卷是上海AI实验室开源的多模态语料库,包含文本数据集、图文数据集、视频数据集三部分,数据总量超过2TB。目前,书生·万卷1.0已被应用于书生·多模态、书生·浦语的训练。通过对高质量语料的“消化”,书生系列模型在语义理解、知识问答、视觉理解、视觉问答等各类生成式任务表现出优异性能。
预训练-InternLM高效预训练框架
除大模型外,InternLM代码库开源了预训练框架InternLM-Train。深度整合Transformer模型算子提升了训练效率,并提出了独特的Hybrid Zero技术,实现了计算和通信的高效重叠,大幅降低训练过程中的跨节点通信流量。得益于极致的性能优化,实现了千卡并行计算的高效率,训练性能达行业领先水平。
微调-InternLM全参数微调、XTuner轻量级微调
InternLM支持对模型进行全参数微调,支持丰富的下游应用。同时,低成本大模型微调工具箱XTuner也在近期开源,支持多种大模型及LoRA、QLoRA等微调算法,通过XTuner,最低仅需 8GB 显存即可对7B模型进行低成本微调,20B模型的微调,在24G显存的消费级显卡上就能完成。
部署-LMDeploy支持十亿到千亿级参数语言模型的高效推理
LMDeploy涵盖了大模型的全套轻量化、推理部署和服务解决方案,支持了从十亿到千亿级参数的高效模型推理,在吞吐量等性能上超过FasterTransformer、vLLM和Deepspeed等社区主流开源项目。
评测-OpenCompass一站式、全方位大模型评测平台
OpenCompass是上海AI实验室开源的大模型评测平台,构建了包含学科、语言、知识、理解、推理五大维度的评测体系,支持超过50个评测数据集和30万道评测题目,支持零样本、小样本及思维链评测,是目前最全面的开源评测平台。自7月发布以来,受到学术界和产业界广泛关注,目前已为阿里巴巴、腾讯、清华大学等数十所企业及科研机构广泛应用于大模型研发。
应用-Lagent轻量灵活的智能体框架
书生·浦语团队同时开源了智能体框架,支持用户快速将一个大语言模型转变为多种类型的智能体,并提供典型工具为大语言模型赋能。Lagent开源框架支持InternLM、Llama及ChatGPT等大语言模型,并集合了ReAct、AutoGPT 及ReWoo等多种类型的智能体能力。在Lagent的加持下,这些智能体可调用大语言模型进行规划推理和工具调用,并可在执行中及时进行反思和自我修正。
基于书生·浦语大模型,上海AI实验室已发展出更丰富的下游应用,将于近期陆续向学术界及产业界分享。
面向大模型掀起的新一轮创新浪潮,上海AI实验室致力于以原始创新引领技术进步,持续打造综合能力更强大的基础模型,构建更完整易用的全链条工具体系,并坚持通过开源开放、免费商用,全面赋能整个AI社区生态的繁荣发展,帮助企业和研究机构降低大模型的开发和应用门槛,让大模型的价值在各行各业中绽放。
全链条工具体系开源链接:
“书生·万卷”预训练语料
https://github.com/opendatalab/WanJuan1.0
InternLM预训练框架
https://github.com/InternLM/InternLM
XTuner微调工具箱
https://github.com/InternLM/xtuner
LMDeploy推理工具链
https://github.com/InternLM/lmdeploy
OpenCompas大模型评测平台
https://github.com/open-compass/opencompass
Lagent智能体框架
https://github.com/InternLM/lagent