清华团队发布ChatGLM2-6B ,在ChatGLM-6B 基础上改进

879次阅读
没有评论

品玩6月26日讯,据 huggingface 页面显示, ChatGLM-6B 的第二代版本 ChatGLM2-6B  现已正式开源

清华团队发布ChatGLM2-6B ,在ChatGLM-6B 基础上改进

ChatGLM2-6B 拥有比 ChatGLM-6B 更强大的性能,相比于初代模型,ChatGLM2-6B 在 MMLU(+23%)、CEval(+33%)、GSM8K(+571%) 、BBH(+60%)等数据集上的性能取得了大幅度的提升,在同尺寸开源模型中具有较强的竞争力。此外,ChatGLM2-6B基座模型的上下文长度由 ChatGLM-6B 的 2K 扩展到了 32K,并在对话阶段使用 8K 的上下文长度训练,允许更多轮次的对话。

另外,ChatGLM2-6B 可以实现更高效的推理,在官方的模型实现下,其推理速度相比初代提升了 42%,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy