榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

485次阅读
没有评论

榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

面向计算-内存分离架构的高性能分布式KV索引

当大语言模型(LLM)走向千行百业,推理效率与显存成本的矛盾日益尖锐。

KV Cache (Key-Value Cache)作为提升生成速度的核心技术,却像一个 “吞存巨兽”—— 每增加一个 token,就需要更多显存存储键(Key)和值(Value)向量,最终成为制约模型规模扩张、并发能力提升的 “紧箍咒”如何高效、经济地扩展KV Cache存储空间,已成为全球AI产研界亟待攻克的高地。

业界探索

Nvidia开源的Dynamo项目,实现存储系统多级缓存算法,热数据在显存、温数据在主机内存、冷数据在 SSD 或远端对象存储,并通过一套统一的索引 + 异步流水线实现自动迁移与透明访问,但是多级存储之间的数据迁移流程复杂,延迟开销难以压缩。

微软推出的LMCahce存储系统,高度兼容vLLM等推理框架,但是对分布式存储支持较低,空间上限低。

阿里巴巴提出一种将KV Cache空间扩展到Tair数据库的远端存储方案,存储空间易扩展,但是读写性能难以满足LLM推理业务的低延迟需求。

榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

CXL(Compute Express Link) 作为一种新兴的高速互联技术,以其高带宽、低延迟和硬件级缓存一致性的特性,为破解内存瓶颈带来了新的希望,可以解决AI和高性能计算中遇到的内存瓶颈问题。

业界关于CXL存储加速LLM推理的研究仍然较少,探索如何利用CXL等新型介质扩展KV Cache空间,进而将成熟的软件栈迁移到CXL硬件场景,是一项非常有意义的工作。

中兴通讯Mariana探索

中兴通讯公司和华东师范大学的研究团队联合提出了一种名为Mariana(马里亚纳)的分布式共享KV存储技术,该工作《Mariana: Exploring Native SkipList Index Design for Disaggregated Memory》论文发表在IEEE Transactions on Parallel and Distributed Systems (TPDS) 。

Mariana作为一个面向计算-内存分离架构的高性能分布式KV索引,可以完美适配大模型推理场景的GPU、KV Cache存储,通过把节点锁细化到条目级、用自适应分裂/合并抑制热点写放大,并以SIMD友好的数据布局和轻量级热点缓存,实现比现有方案高 1.7 倍吞吐、尾延迟降低 23% 的纯有序索引。

Mariana解决了“如何在高并发、热点倾斜、延迟敏感的高性能计算场景,让KV索引同时做到高吞吐、低延迟、可扩展?”的问题,为KV Cache存储提供新的优化方案。

榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

Mariana提出三项关键创新,分别针对上述三个问题:

1. 细粒度并发控制方案(MSCS – Multi-Slot lock-based Concurrency Scheme)

将并发控制的粒度从节点级下降到条目级。在每个叶子节点内预留多个槽位Slots和对应的闩锁Latch,写入操作时,客户端通过RDMA_CAS竞争一个空闲槽位的闩锁,而不是竞争整个节点的锁,实现同一个节点的不同槽位并发写入,极大地减少了竞争。叶子节点支持动态调整叶子数据范围、自动扩缩,将热点区域隔离以减少后续该节点上的竞争,显著降低了写密集型和高偏斜(skewed)工作负载下的争用,提高吞吐量同时降低了尾延迟。

榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

2. 为叶子节点定制的数据布局(TLN – Tailored Leaf Node)

采用分离式存储,Key在内存中连续存放,value则与校验和在另一内存块连续存储;连续键数组可一次性加载至SIMD寄存器,大幅提升查找速度;优化读写操作序列,避免多次RDMA读写指令。

榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

3. 自适应缓存策略

提出一种能够快速感知并缓存变化热点的轻量级缓存机制。使用Count-Min Sketch算法及时识别出热点数据,维护一个按热度排序的链表。计算节点缓存热点L1节点的最小键及存储地址,大幅降低热点数据加载延迟,提升存储系统的读性能。

榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

实验结果表明,Mariana与目前最新的分布式KV存储系统相比,在读写吞吐、延迟性能方向都有显著的提示。KV Cache属于读多写少场景,Mariana能够解决目前存储方案中的性能瓶颈。

榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

应用验证

MARIANA的创新设计与大模型KV Cache需求高度契合:

  • 大容量存储:Mariana的解耦内存架构,支持将数据分布在远端CPU DRAM甚至PMem/SSD组成的共享内存池内存节点池,理论上存储空间没有上限。
  • 高吞吐:Mariana通过硬件加速(SIMD) 和智能缓存(元数据缓存) 两种方式,显著减少了完成一次KV Cache查找所需的计算和网络开销,极大地提升了读吞吐量。
  • 低延迟读:Mariana的整个数据路径(本地缓存->RDMA->SIMD搜索)都是为低延迟而优化的。其延迟远低于需要经过远端CPU协议栈的解决方案,能够满足推理流水线的严格延迟要求。
  • 水平扩展:Mariana通过去中心化的细粒度并发控制实现了良好的水平扩展能力,非常适合作为大规模分布式推理集群的存储基础。

基于vLLM框架搭建大模型推理应用,验证关闭KV Cache、开启显存KV Cache、开启Mariana多级存储几个场景的推理性能,配置足够多的并发测试请求,GPU显存空间有限,只能存放50%的KV数据。

榨干GPU性能,中兴Mariana(马里亚纳)突破显存壁垒

测试结果显示,基于Mariana扩展的多级KV Cache存储能够显著提升大模型的推理过程预加载阶段的性能。

拥抱CXL新生态

Mariana的强大之处在于其设计理念与底层硬件解耦。其核心算法无需重新设计,即可从RDMA网络平滑迁移至未来的CXL硬件生态。仅需将远程访问API替换为CXL.mem操作,便能充分利用CXL的低延迟和一致性优势,成为构建下一代大模型推理基础设施的坚实基石。

从优化细粒度并发控制到适配CXL新生态,Mariana的突破不仅是一次技术创新,更重新定义了大模型推理的存储逻辑——当显存不再是不可逾越的壁垒,当分布式存储能在高吞吐与低延迟间找到完美平衡点,大模型的规模化应用将迎来真正的普惠时代。

或许在不久的将来,随着CXL技术的成熟与Mariana这样的技术方案的落地,我们会看到百亿/千亿参数模型在普通硬件上高效运行,让 AI 的算力红利真正渗透到每一个需要它的场景中。

版权所有,未经授权不得以任何形式转载及使用,违者必究。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 0
评论(没有评论)

文心AIGC

2025 年 8 月
 123
45678910
11121314151617
18192021222324
25262728293031
文心AIGC
文心AIGC
人工智能ChatGPT,AIGC指利用人工智能技术来生成内容,其中包括文字、语音、代码、图像、视频、机器人动作等等。被认为是继PGC、UGC之后的新型内容创作方式。AIGC作为元宇宙的新方向,近几年迭代速度呈现指数级爆发,谷歌、Meta、百度等平台型巨头持续布局
文章搜索
热门文章
潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026

潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026

潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026 Jay 2025-12-22 09...
面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25

面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25

面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25 鹭羽 2025-12-13 22:37...
钉钉又发新版本!把 AI 搬进每一次对话和会议

钉钉又发新版本!把 AI 搬进每一次对话和会议

钉钉又发新版本!把 AI 搬进每一次对话和会议 梦晨 2025-12-11 15:33:51 来源:量子位 A...
5天连更5次,可灵AI年末“狂飙式”升级

5天连更5次,可灵AI年末“狂飙式”升级

5天连更5次,可灵AI年末“狂飙式”升级 思邈 2025-12-10 14:28:37 来源:量子位 让更大规...
商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1

商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1

商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1 十三 2025-12-15 14:13:14 ...
最新评论
ufabet ufabet มีเกมให้เลือกเล่นมากมาย: เกมเดิมพันหลากหลาย ครบทุกค่ายดัง
tornado crypto mixer tornado crypto mixer Discover the power of privacy with TornadoCash! Learn how this decentralized mixer ensures your transactions remain confidential.
ดูบอลสด ดูบอลสด Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
Obrazy Sztuka Nowoczesna Obrazy Sztuka Nowoczesna Thank you for this wonderful contribution to the topic. Your ability to explain complex ideas simply is admirable.
ufabet ufabet Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
ufabet ufabet You’re so awesome! I don’t believe I have read a single thing like that before. So great to find someone with some original thoughts on this topic. Really.. thank you for starting this up. This website is something that is needed on the internet, someone with a little originality!
ufabet ufabet Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
热评文章
读懂2025中国AI走向!公司×产品×人物×方案,最值得关注的都在这里了

读懂2025中国AI走向!公司×产品×人物×方案,最值得关注的都在这里了

读懂2025中国AI走向!公司×产品×人物×方案,最值得关注的都在这里了 衡宇 2025-12-10 12:3...
5天连更5次,可灵AI年末“狂飙式”升级

5天连更5次,可灵AI年末“狂飙式”升级

5天连更5次,可灵AI年末“狂飙式”升级 思邈 2025-12-10 14:28:37 来源:量子位 让更大规...
戴尔 x OpenCSG,推出⾯向智能初创企业的⼀体化 IT 基础架构解决方案

戴尔 x OpenCSG,推出⾯向智能初创企业的⼀体化 IT 基础架构解决方案

戴尔 x OpenCSG,推出⾯向智能初创企业的⼀体化 IT 基础架构解决方案 十三 2025-12-10 1...
九章云极独揽量子位三项大奖:以“一度算力”重构AI基础设施云格局

九章云极独揽量子位三项大奖:以“一度算力”重构AI基础设施云格局

九章云极独揽量子位三项大奖:以“一度算力”重构AI基础设施云格局 量子位的朋友们 2025-12-10 18:...
乐奇Rokid这一年,一路狂飙不回头

乐奇Rokid这一年,一路狂飙不回头

乐奇Rokid这一年,一路狂飙不回头 梦瑶 2025-12-10 20:41:15 来源:量子位 梦瑶 发自 ...