也看利用大模型进行RAG文本嵌入训练数据生成:兼看面向NLP任务的开源指令微调数据集

1,538次阅读
没有评论

今天是2024年1月4日,星期四,北京,天气晴。

我们继续来看看RAG召回侧的embedding嵌入问题

文本嵌入是文本的连续低维表示,已被广泛应用于各种下游任务,如信息检索、问题解答和检索增强生成(RAG),尤其是在RAG中,嵌入是一个核心问题,在召回侧很重要。【尤其是在q-d匹配上】

早期的文本嵌入方法包括潜在语义索引LSI和单词加权平均嵌入wordvec,最近的方法则利用自然语言推理和标注查询-文档对(如MS-MARCO段落排序数据集)的监督来训练文本嵌入,然而,有标签的数据在任务多样性和语言覆盖面方面往往是有限的。

为了应对这一挑战,Contriever、OpenAIEmbeddings、E5和BGE等方法采用了多阶段训练模式,其首先使用对比损失在大规模弱监督文本对上进行预训练,然后在小规模但高质量的数据集上进行微调。

多样性不够好,尤其是针对不同的任务,应该有不同的嵌入表示,因此,我们在昨天的文章 《引入任务Instruction指令的句子向量化方案:Instructor的实现思路及训练数据集构造方案》(https://mp.weixin.qq.com/s/qIh07eU8_lYL2gBVzTFzKA) 中有介绍到instructor的方案,其在每个query上,加上了指令信息,并一次来计算对比学习loss:

也看利用大模型进行RAG文本嵌入训练数据生成:兼看面向NLP任务的开源指令微调数据集

这种思路引入了适配特定instruction任务的嵌入方案,这与instruction微调美妙结合。

但是,这种方法,用的是已有的instruction任务数据,能否自动化构造合成数据?

最近的另一个工作,《Improving Text Embeddings with Large Language Models》(https://arxiv.org/abs/2401.00368) 这一工作,利用LLM为近100种语言的文本嵌入任务生成多样化的合成数据,在合成数据上使用标准对比损失对开源模型LLM进行微调,得到更好的嵌入表示。

也看利用大模型进行RAG文本嵌入训练数据生成:兼看面向NLP任务的开源指令微调数据集

具体思路上,用了两步提示策略:首先提示LLMs对候选任务库进行头脑风暴,然后提示LLMs从任务库中生成以给定任务为条件的数据。为了涵盖各种应用场景,为每种任务类型设计了多个提示模板,并将不同模板生成的数据结合起来,以提高多样性。对于文本嵌入模型,选择微调功能强大的开源LLM,而不是BERT式的小型模型。

其中涉及到的数据合成思路,跟self-instruc等工作能够连起来了,很有趣,我们先来看看,更特别的,它在关注q-d匹配,并涉及到了short query/long document, long query/short document, short query/shor documenet, long query/long document等场景,这些都是与RAG直接相关的,值得大家关注。

而与此更为相关的,是现有相关NLP开放指令数据集,我们可以看到xp3系列以及coig系列,体量很大,建议大家收藏。

供大家一起参考。

一、基于LLM进行文本嵌入数据合成思路

利用GPT-4进行数据生成已然成了当前大家目前的常规操作,其增强多种任务和语言的多样性方面也有挺多表现。

而就数据合成而言,多样性对于文本嵌入至关重要,这种嵌入可以在不同的任务中表现良好,无论是语义检索、文本相似性还是聚类。

Instructor的训练数据是一个数据集集合MEDI,里面包含330个来自SuperNaturalInstructions的数据集跟30个现存的用于句向量训练的数据集。

每个数据集都包括对应的instruction,数据集中的每个instance都是如下格式:

Instance = {“query”: [instruction_1, sentence_1],“pos”:[instruction_2, sentence_2],

“neg”:[Instruction_2, sentence_3]}

如果是类似句子相似度的对称类任务,那就只有一个instruction,示例中的instruction_1跟instruction_2就是同一个,如果是类似检索的非对称任务,那么query跟doc都各有一个instruction,instruction_1跟instruction_2就是两个不同的instruction。

为了生成多样化的合成数据,该工作则提出了利用大模型生成数据的方案,采用一种简单的分类法,将嵌入任务分为几个组,然后对每个组应用不同的提示模板。

也看利用大模型进行RAG文本嵌入训练数据生成:兼看面向NLP任务的开源指令微调数据集

1、非对称任务

此类别包括查询和文档在语义上相关但彼此互不转述的任务。根据查询和文档的长度,进一步将非对称任务分为四个子类型:短长匹配、长短匹配、短短匹配和长长匹配。

例如,短长匹配任务涉及短查询和长文档,这是商业搜索引擎中的典型场景。

对于每个子组,设计一个两步提示模板,首先提示大模型进行头脑风暴列出任务列表,然后根据任务定义生成一个具体示例。

可以使用单个提示生成任务定义和查询文档对,但数据多样性不如所提出的两步方法。

2、对称任务

对称任务涉及具有相似语义但表面形式不同的查询和文档,主要包括两个应用场景:单语语义文本相似性(STS)和双文本检索。

为每个场景设计了两个不同的提示模板,根据其特定目标量身定制。由于任务定义很简单,省略了对称任务的头脑风暴步骤。

为了进一步提高提示和合成数据的多样性,在每个提示模板中合并了几个占位符,其值在运行时随机采样。

例如,在图1中,“{query_length}”的值是从集合“{少于5个单词,5-10个单词,至少10个单词}”中采样的。

为了生成多语言数据,从XLM-R的语言列表中采样“{语言}”的值,为高资源语言赋予更多权重,任何不符合预定义JSON格式的生成数据都会在解析过程中被丢弃,并根据精确的字符串匹配来删除重复项。

最后,利用生成的合成数据和13个公共数据集的集合,采样后生成约180万个示例。

也看利用大模型进行RAG文本嵌入训练数据生成:兼看面向NLP任务的开源指令微调数据集

3、模型训练

给定一个相关的查询-文档对(q+,d+),首先将以下指令模板应用于原始查询q+以生成一个新的qinst+:

也看利用大模型进行RAG文本嵌入训练数据生成:兼看面向NLP任务的开源指令微调数据集

其中“{task_definition}”是嵌入任务的一句话描述的占位符。对于生成的合成数据,使用头脑风暴步骤的输出。

例如,对应的task_instruction如下包括:

也看利用大模型进行RAG文本嵌入训练数据生成:兼看面向NLP任务的开源指令微调数据集

对于其他数据集,例如MS-MARCO,手动制定任务定义并将其应用于数据集中的所有查询。

也看利用大模型进行RAG文本嵌入训练数据生成:兼看面向NLP任务的开源指令微调数据集

给定一个预训练的LLM,将[EOS]标记附加到查询和文档的末尾,然后通过最后一个实例将它们输入到LLM以获取查询和文档嵌入最后一层[EOS]向量。

也看利用大模型进行RAG文本嵌入训练数据生成:兼看面向NLP任务的开源指令微调数据集

为了训练嵌入模型,对批内负例和难负例采用标准InfoNCE损失

也看利用大模型进行RAG文本嵌入训练数据生成:兼看面向NLP任务的开源指令微调数据集

4、模型评估

其中有个很有趣的点,为了评估长上下文能力,引入了一种称为个性化密钥检索(personalized passkey retrieval)的任务【这个很像前面我们说的大海捞针任务】,如图4所示,该任务需要将长上下文中的密钥信息编码到嵌入中。

也看利用大模型进行RAG文本嵌入训练数据生成:兼看面向NLP任务的开源指令微调数据集

这块来自:《Landmark Attention: Random-Access Infinite Context Length for Transformers》(https://arxiv.org/abs/2305.16300)

“<前缀填充符 prefix filler>”和“<后缀填充符 suffix filler>”是“The grass is green. The sky is blue. The sun is yellow. Here we go. There and back again”的重复,此外,每个文档都有一个唯一的人名和插入在随机位置的随机密钥。 任务是从100名候选人中检索包含给定人员密钥的文档。

对应的prompt如下:

也看利用大模型进行RAG文本嵌入训练数据生成:兼看面向NLP任务的开源指令微调数据集

二、现有开源面向NLP任务的instruction微调数据

实际上,目前已经有许多关于面向中文NLP任务的微调数据出来,构造方式包括有prompt source等。最近在关注这方面的工作,所以也分享出来,供大家一起参考。

1、英文:P3系列

P3(公共提示池)是涵盖各种NLP任务的提示英语数据集的集合。提示是输入模板和目标模板的组合。

数据样例如下:

{ "inputs": "Sentence 1: Fue académico en literatura metafísica, teología y ciencias clásicas.nSentence 2: Fue académico en literatura metafísica, teología y ciencia clásica.nQuestion: Can we rewrite Sentence 1 to Sentence 2? Yes or No?", "targets": "Yes" } 

其最关键的部分在于板,模板是将数据示例映射为输入序列和目标序列的自然语言的函数。

也看利用大模型进行RAG文本嵌入训练数据生成:兼看面向NLP任务的开源指令微调数据集

地址:https://huggingface.co/datasets/bigscience/P3

2、中文:cogi-c

COIG-PC(Prompt Collection)数据集是智源研究院等全面收集的中文任务和数据集,旨在提供丰富的资源,以提高大语言模型文本生成、信息提取、情感分析、机器翻译等能力,促进中文大语言模型的微调和优化。

COIG: https://huggingface.co/datasets/BAAI/COIG

COIG-PC:https://huggingface.co/datasets/BAAI/COIG-PC

数据样例如下:

{
    "instruction""请把下面的中文句子翻译成英文",
    "input""我爱你。",
    "output""I love you.",
    "split""train",
    "task_type": {
        "major": ["翻译"],
        "minor": ["翻译""中译英"]
    },
    "domain": ["通用"],
    "other": null
}

总结

本文主要延续昨天的文章,介绍了《Improving Text Embeddings with Large Language Models》(https://arxiv.org/abs/2401.00368)这另一工作,利用LLM为近100种语言的文本嵌入任务生成多样化的合成数据,在合成数据上使用标准对比损失对开源模型LLM进行微调,得到更好的嵌入表示。

而与此更为相关的,是现有相关NLP开放指令数据集,我们可以看到xp3系列以及coig系列,这些数据无论是体量,还是标准化程度,都可以作为我们的数据基础。

参考文献

1、https://cobusgreyling.medium.com/improving-text-embeddings-with-llm-generated-synthetic-data-ee4b32fee262

2、https://arxiv.org/abs/2401.00368

关于我们

老刘,刘焕勇,NLP开源爱好者与践行者,主页:https://liuhuanyong.github.io。

老刘说NLP,将定期发布语言资源、工程实践、技术总结等内容,欢迎关注。

对于想加入更优质的知识图谱、事件图谱、大模型AIGC实践、相关分享的,可关注公众号,在后台菜单栏中点击会员社区->会员入群加入。

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 0
评论(没有评论)

文心AIGC

2024 年 1 月
1234567
891011121314
15161718192021
22232425262728
293031  
文心AIGC
文心AIGC
人工智能ChatGPT,AIGC指利用人工智能技术来生成内容,其中包括文字、语音、代码、图像、视频、机器人动作等等。被认为是继PGC、UGC之后的新型内容创作方式。AIGC作为元宇宙的新方向,近几年迭代速度呈现指数级爆发,谷歌、Meta、百度等平台型巨头持续布局
文章搜索
热门文章
潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026

潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026

潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026 Jay 2025-12-22 09...
面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25

面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25

面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25 鹭羽 2025-12-13 22:37...
5天连更5次,可灵AI年末“狂飙式”升级

5天连更5次,可灵AI年末“狂飙式”升级

5天连更5次,可灵AI年末“狂飙式”升级 思邈 2025-12-10 14:28:37 来源:量子位 让更大规...
钉钉又发新版本!把 AI 搬进每一次对话和会议

钉钉又发新版本!把 AI 搬进每一次对话和会议

钉钉又发新版本!把 AI 搬进每一次对话和会议 梦晨 2025-12-11 15:33:51 来源:量子位 A...
商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1

商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1

商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1 十三 2025-12-15 14:13:14 ...
最新评论
ufabet ufabet มีเกมให้เลือกเล่นมากมาย: เกมเดิมพันหลากหลาย ครบทุกค่ายดัง
tornado crypto mixer tornado crypto mixer Discover the power of privacy with TornadoCash! Learn how this decentralized mixer ensures your transactions remain confidential.
ดูบอลสด ดูบอลสด Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
Obrazy Sztuka Nowoczesna Obrazy Sztuka Nowoczesna Thank you for this wonderful contribution to the topic. Your ability to explain complex ideas simply is admirable.
ufabet ufabet Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
ufabet ufabet You’re so awesome! I don’t believe I have read a single thing like that before. So great to find someone with some original thoughts on this topic. Really.. thank you for starting this up. This website is something that is needed on the internet, someone with a little originality!
ufabet ufabet Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
热评文章
读懂2025中国AI走向!公司×产品×人物×方案,最值得关注的都在这里了

读懂2025中国AI走向!公司×产品×人物×方案,最值得关注的都在这里了

读懂2025中国AI走向!公司×产品×人物×方案,最值得关注的都在这里了 衡宇 2025-12-10 12:3...
5天连更5次,可灵AI年末“狂飙式”升级

5天连更5次,可灵AI年末“狂飙式”升级

5天连更5次,可灵AI年末“狂飙式”升级 思邈 2025-12-10 14:28:37 来源:量子位 让更大规...
戴尔 x OpenCSG,推出⾯向智能初创企业的⼀体化 IT 基础架构解决方案

戴尔 x OpenCSG,推出⾯向智能初创企业的⼀体化 IT 基础架构解决方案

戴尔 x OpenCSG,推出⾯向智能初创企业的⼀体化 IT 基础架构解决方案 十三 2025-12-10 1...
九章云极独揽量子位三项大奖:以“一度算力”重构AI基础设施云格局

九章云极独揽量子位三项大奖:以“一度算力”重构AI基础设施云格局

九章云极独揽量子位三项大奖:以“一度算力”重构AI基础设施云格局 量子位的朋友们 2025-12-10 18:...
乐奇Rokid这一年,一路狂飙不回头

乐奇Rokid这一年,一路狂飙不回头

乐奇Rokid这一年,一路狂飙不回头 梦瑶 2025-12-10 20:41:15 来源:量子位 梦瑶 发自 ...