当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

714次阅读
没有评论

购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

在商家的投放效果和消费者的购物体验等指标上均带来了显著提升。

允中 发自 凹非寺

量子位 | 公众号 QbitAI

在推荐、广告场景,如何利用好大模型的能力?这是个很有挑战的命题。

背后主要有两个核心难点:

1)LLM虽然具备丰富的世界知识和推理能力,但缺乏电商领域的专业知识,在直接应用中往往表现欠佳。

2)LLM的交互方式多为文本,而直接将用户历史行为以文本格式描述会导致输入信息冗长、信息密度低等问题,对建模和推理都造成了困扰。

为了解决以上问题,阿里妈妈提出了一种世界知识大模型URM,通过知识注入和信息对齐,让LLM成为兼顾世界知识和电商知识的专家。相比于传统的推荐模型,URM通过对用户兴趣的全面理解,可实现基于推理认知能力的用户兴趣推荐。

为了在低时延、高QPS要求的实际系统中上线应用,阿里妈妈技术团队设计了一套面向用户行为动态捕捉的异步推理链路。

目前,URM已经在阿里妈妈展示广告场景上线,在商家的投放效果和消费者的购物体验等指标上均带来了显著提升。

以下面这个例子为例,一个对嵌入式家电、收纳用品有过历史行为的用户,系统推测用户在关注装修且处于硬装的早期阶段,且根据点击商品推断用户比较注重生活品质,因此推荐了一些全屋定制类产品以及高品质的家电。

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

在传统推荐任务之外,通过特定的文字引导,URM可结合用户的历史兴趣产出更适合当前情境的结果。通过用户行为我们推测用户是一位男童的母亲,并且关注过儿童的新年衣服和女士牛仔裤。

当引导词增加新年时,推荐结果以儿童新年服装为主,而传统任务下系统会倾向于推荐用户近期浏览较多的女式牛仔裤。

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

本届互联网技术领域国际顶级学术会议-国际万维网大会(International World Wide Web Conference,简称WWW)于4月28日在悉尼召开。

会议期间,淘天集团的阿里妈妈共同主持一个计算广告算法技术相关的Tutorial(讲座),内容为介绍计算广告领域的技术发展脉络,以及阿里妈妈在该领域的最新技术突破——

阿里妈妈LMA2广告大模型系列中的URM(Universal Recommendation Model)世界知识大模型,首次重磅亮相。

世界知识大模型URM

个性化推荐在人们的日常生活中出现频率越来越高。为了满足用户的多样化需求,推荐系统中的任务定义也更加多元化,如多场景推荐、多目标推荐、发现性推荐等等。

参考LLM在自然语言处理领域的巨大成功,阿里妈妈技术团队希望基于LLM构建电商领域的世界知识大模型,使得它能同时具备LLM的世界知识和电商领域的专业知识,且能够轻松应对上述全部任务。

基于此,阿里妈妈技术团队提出了世界知识大模型Universal Recommendation Model(以下称URM),以预训练的LLM为基座,将多任务设计融入Prompt设计中,通过ID表征的知识注入和电商领域的任务对齐,实现对用户历史兴趣的理解和推理并最终推荐出符合用户兴趣的结果。

以下将从任务定义、整体架构、离线实验三方面详细展开。

任务定义

参考LLM的训练范式,在URM中,阿里妈妈技术团队利用文本来定义不同的推荐任务。

考虑到推荐场景用户行为的重要性和丰富性,为了充分刻画用户的历史行为,避免商品标题的冗长和低密度,URM将商品ID作为一种特殊的token注入文本描述,实现用户行为序列的高效表达。

考虑到工业场景落地的效率,URM直接生成商品ID,同时在输出结果中保留了文本,在对齐电商任务的同时保留LLM本身的知识。

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

多任务会通过输入中的任务描述体现,部分示例参考下表。

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

整体架构

为了保留LLM的预训练知识,阿里妈妈技术团队保留多层Transformer结构不变,对输入层和输出层的结构进行修改,如下图所示。

输入端,输入序列由用户行为中的商品ID、任务提示中的文本token以及[UM]、[LM]等特定查询符组成。商品ID通过分布式商品Embedding模块映射为商品Embedding,其他文本映射为Token Embedding,商品 Embedding或Token Embedding与Postion Embedding相加后输入到 LLM的主干网络(对于使用RoPE的模型而言则不存在显式的Position Embedding)

输出端,为了避免产出推荐结果和推理文本相互干扰,阿里妈妈技术团队在输入中增加了[UM]和[LM] 2种特殊字符来表示当前应该输出用户表征还是开始生成文本。与[UM]符号对应的输出通过用户建模头hUM映射到用户表示空间,用于候选商品的生成;与[LM]符号及其后续符号对应的输出通过语言模型头hLM映射到文本空间,用于文本token的生成。

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

△URM整体架构

URM架构区别于传统LLM主要有2个模块,1是商品多模态融合的表征方式,2是兼顾效果和效率的Sequence-In-Set-Out生成方式。

以下会分别介绍这两部分。最后介绍URM的训练方式。

商品多模态融合表征

在传统推荐模型中,ID表征是面向特定任务的数据分布学习的,代表了商品间的相似关系,压缩了电商领域的协同信息。而LLM中通常采用文本、图像等语义表征,描述内容信息间的相似性。

为了提升LLM对电商信号的理解,同时保留LLM的知识,表征层设计了 ID表征和语义表征的融合模块来表达商品,并通过可学习MLP层实现ID 表征和文本、图像等语义表征的对齐。

同时,这套融合表征的设计具备较强的可扩展性,如语义ID等token均可作为新增模态引入,来不断强化商品的表达能力。

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

△商品融合表征,输入ID/Text/Image表征固定,MLP层可学习

Seqence-In-Set-Out生成方式

推荐的目标是从一个千万级别的候选库中找到曝光/点击概率最大的K个商品,它和语言模型LM从十万规模的词表空间中生成语言概率最大的 Token,是类似的问题。

因此若不考虑计算成本,可以通过下述方式获得结果:

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

其中U是大语言模型生成的用户表征,对应LM中的隐藏层特征,W是所有商品的融合表征,对应LLM中的最后一层的参数。考虑到工业界的落地可行性,阿里妈妈技术团队使用生成的用户表征和候选商品表征的内积作为分数并采样分数TopK的商品作为最终生成的结果。

在这种内积计算的范式下,模型的表达能力相对受限,对用户和商品的建模能力较差且推荐集合的多样性也会较差,难以发挥大语言模型的优势。函数逼近理论的一个结论是,特征的多个内积的线性组合可以逼近任意复杂的函数。因此通过增加[UM]token的数量使URM在一次前向过程中并行生成多个用户表征U=(U1,……,UH),最终用户和商品之间的打分为

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

这种Set-Out的多输出方式不仅能够保持仅需一次前向计算的相同推理效率,而且随token数上涨召回指标显著提升,同时解决了单一用户表征兴趣覆盖度有限的问题。

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

△不同[UM] Token输出的可视化

训练方式

整体训练损失包括商品推荐任务损失和文本生成任务损失。

输出序列表示为

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

目标文本表示为

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

目标商品表示为

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

商品推荐任务通过噪声对比估计(NCE)损失来优化:

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

其中用户建模头hUM输出的用户表征:

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

在每个批次中,负样本N是从商品候选中基于其出现频率采样得到的。

文本生成任务可以通过目标文本序列的负对数似然来优化:

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

其中P= softmax(hLM (ψ(⋅))是由语言模型头hLM输出的概率。

最终的训练目标是:

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

其中η是权衡超参数。考虑到URM对LLM的输入和输出层进行了显著修改,阿里妈妈技术团队采用完整参数的有监督微调(SFT),仅冻结商品的原始表征。

离线实验

URM使用多任务融合数据集训练,并在生产数据集上取得了平均11.0%的Recall提升,在6个子任务(共9个任务)中都超越了线上使用 Target-Attention结构的传统推荐模型。

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

△URM在多任务上的表现 vs 传统模型

进一步的消融实验,验证了表征融合模块的有效性,也验证了随UM token数量上涨召回Recall呈显著上涨。Figure6验证了URM仍具有良好的文本理解能力和泛化能力,对已知的query文本和未知的query都有良好的推荐表现。

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

△商品多模态表征融合模块消融实验

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

△UM头输出数量对效果的影响

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

高QPS低时延约束下的落地方案

考虑到LLM的推理时延较长,无法满足在线请求的时延约束,阿里妈妈技术团队建设了一套异步推理的大模型召回链路。

如下图所示,在用户有淘系行为时异步触发URM推理,并将结果做持久化存储,供在线召回阶段读取使用。

当购物用上大模型!阿里妈妈首发世界知识大模型,破解推荐难题

在模型推理服务上,由于URM在商品多模态融合表征模块和User表征检索方式的改造,需要在LLM推理中增加HashTable支持,并支持推理表征的向量检索。

为了进一步提升资源利用率,阿里妈妈技术团队实现了多instance在同一容器的部署,将URM推理的并发qps提升200%。

结语

本文主要介绍了阿里妈妈LMA 2广告大模型系列中的世界知识大模型URM在建模和落地方面的思考和进展。通过结合大模型的通用知识和电商领域的专家知识,URM能够更加精准地预测用户的潜在兴趣和购物需求,为商家和消费者提供更优质的服务。

更多URM的细节欢迎关注后续“阿里妈妈技术”的公众号文章或参考论文。

论文链接:
https://arxiv.org/pdf/2502.03041

版权所有,未经授权不得以任何形式转载及使用,违者必究。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 0
评论(没有评论)

文心AIGC

2025 年 5 月
 1234
567891011
12131415161718
19202122232425
262728293031  
文心AIGC
文心AIGC
人工智能ChatGPT,AIGC指利用人工智能技术来生成内容,其中包括文字、语音、代码、图像、视频、机器人动作等等。被认为是继PGC、UGC之后的新型内容创作方式。AIGC作为元宇宙的新方向,近几年迭代速度呈现指数级爆发,谷歌、Meta、百度等平台型巨头持续布局
文章搜索
热门文章
清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开

清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开

清库存!DeepSeek突然补全R1技术报告,训练路径首次详细公开 Jay 2026-01-08 20:18:...
训具身模型遇到的很多问题,在数据采集时就已经注定了丨鹿明联席CTO丁琰分享

训具身模型遇到的很多问题,在数据采集时就已经注定了丨鹿明联席CTO丁琰分享

训具身模型遇到的很多问题,在数据采集时就已经注定了丨鹿明联席CTO丁琰分享 衡宇 2026-01-08 20:...
「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2...
AI金矿上打盹的小红书,刚刚醒了一「点点」

AI金矿上打盹的小红书,刚刚醒了一「点点」

AI金矿上打盹的小红书,刚刚醒了一「点点」 鱼羊 2025-12-26 17:04:08 来源:量子位 一个积...
最新评论
ufabet ufabet มีเกมให้เลือกเล่นมากมาย: เกมเดิมพันหลากหลาย ครบทุกค่ายดัง
tornado crypto mixer tornado crypto mixer Discover the power of privacy with TornadoCash! Learn how this decentralized mixer ensures your transactions remain confidential.
ดูบอลสด ดูบอลสด Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
Obrazy Sztuka Nowoczesna Obrazy Sztuka Nowoczesna Thank you for this wonderful contribution to the topic. Your ability to explain complex ideas simply is admirable.
ufabet ufabet Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
ufabet ufabet You’re so awesome! I don’t believe I have read a single thing like that before. So great to find someone with some original thoughts on this topic. Really.. thank you for starting this up. This website is something that is needed on the internet, someone with a little originality!
ufabet ufabet Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
热评文章
陈天桥代季峰打响2026大模型第一枪:30B参数跑出1T性能

陈天桥代季峰打响2026大模型第一枪:30B参数跑出1T性能

陈天桥代季峰打响2026大模型第一枪:30B参数跑出1T性能 鹭羽 2026-01-06 14:28:58 来...
OpenAI推理第一人离职,7年打造了o3/o1/GPT-4/Codex

OpenAI推理第一人离职,7年打造了o3/o1/GPT-4/Codex

OpenAI推理第一人离职,7年打造了o3/o1/GPT-4/Codex 衡宇 2026-01-06 13:0...
OpenAI推理第一人离职,7年打造了o3/o1/GPT-4/Codex

OpenAI推理第一人离职,7年打造了o3/o1/GPT-4/Codex

OpenAI推理第一人离职,7年打造了o3/o1/GPT-4/Codex 衡宇 2026-01-06 13:0...
老黄All in物理AI!最新GPU性能5倍提升,还砸掉了智驾门槛

老黄All in物理AI!最新GPU性能5倍提升,还砸掉了智驾门槛

老黄All in物理AI!最新GPU性能5倍提升,还砸掉了智驾门槛 闻乐 2026-01-06 09:09:0...