OpenAssistant是一个开源的对话模型,基于Pythia和LLaMA微调而来,主要用于训练人类标注的数据。
来自 LAION AI 等机构的研究者收集了大量基于文本的输入和反馈,创建了一个专门训练语言模型或其他 AI 应用的多样化和独特数据集 OpenAssistant Conversations。
通过监督微调(SFT)、人类反馈强化学习 (RLHF)大大减少了有效利用LLMs能力所需的技能和领域知识,增加了其在各个领域的可访问性,以及实用性。
然而,RLHF需要依赖高质量的人工反馈数据,这种数据的创建成本很高,而且往往是专有的。为了让大型语言模型民主化,OpenAssistant Conversations就诞生了。
该数据集是一个由人工生成、人工注释的助理式对话语料库,覆盖了广泛的主题和写作风格,由 161443 条消息组成,分布在 66497 个会话树中,使用 35 种不同的语言。该语料库是全球众包工作的产物,涉及超过 13500 名志愿者。
对于任何希望创建 SOTA 指令模型的开发者而言,它都是一个非常宝贵的工具。并且任何人都可以免费访问整个数据集。
此外,为了证明 OpenAssistant Conversations 数据集的有效性,该研究还提出了一个基于聊天的助手 OpenAssistant,其可以理解任务、与第三方系统交互、动态检索信息。可以说这是第一个在人类数据上进行训练的完全开源的大规模指令微调模型。
结果显示,OpenAssistant 的回复比 GPT-3.5-turbo (ChatGPT) 更受欢迎。
人工智能开发的未来在很大程度上取决于公开的高质量数据集和模型,而这正是这个项目的作用。
观看公告视频:
在过去的几个月里,我们的团队孜孜不倦地收集大量基于文本的输入和反馈,以创建一个专门为训练语言模型或其他人工智能应用程序设计的令人难以置信的多样化和独特的数据集。
拥有超过60万个人工生成的数据点,涵盖了广泛的主题和写作风格,对于任何希望创建最先进的指令模型的开发人员来说,我们的数据集都将是一个宝贵的工具!
作者博士毕业于苏黎世联邦理工学院的AI研究者Yannic Kilcher曾创造出GPT-4chan。GPT-4chan学会了在网络上与人交谈,并且在不到24小时的时间里面就发表了超过15,000则内容充满暴力的贴文,而且还没被人发现身份。