DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

526次阅读
没有评论

DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

实现最小化且完全可读的vLLM

西风 发自 凹非寺

量子位 | 公众号 QbitAI

仅用不到1200行代码,实现最小化且完全可读的vLLM

DeepSeek研究员俞星凯搞了个开源项目引得大伙拍手叫绝。

DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

项目名为Nano-vLLM(纳米级-vLLM),有三大特点:

  • 快速离线推理:推理速度可与vLLM相媲美
  • 可读性强的代码库:基于不到1200行Python代码实现,简洁干净
  • 优化套件:包含前缀缓存、Torch compilation 、C++UDA graph等

下面是vLLM与Nano-vLLM在不同硬件和模型配置下的基准测试情况。

在RTX 4070硬件、Qwen3-0.6B模型环境中,设置了256个序列的总请求数,输入和输出长度均在100-1024个 token间随机采样。

测试结果be like:

DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

vLLM略微领先。

二者输出token量相同,vLLM耗时98.95秒、吞吐量为1353.86 tokens/s,Nano-vLLM耗时101.90秒、吞吐量1314.65tokens/s。

接着在H800硬件、Qwen3-8B模型环境中,总请求数为1024个序列,输入输出长度同样随机采样。

DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

此时Nano-vLLM甚至反超原框架。

二者输出token量依旧相同,vLLM耗时98.67秒、吞吐量5916.89 tokens/s ,Nano-vLLM耗时86.73秒、吞吐量 6731.42 tokens/s。

这一成果来自于DeepSeek研究员俞星凯。

DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

他2021年获得南京大学计算机科学技术系学士学位,同年又被南京大学免试录取为硕士研究生,在校他同时也是由周志华教授领导的LAMDA团队的成员。

DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

vLLM是什么?

vLLM是一款专为LLM推理与部署优化的高性能框架,最初由加州大学伯克利分校的Sky Computing Lab开发,现已发展成为一个汇聚学界与业界贡献的社区驱动项目。

DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

该项目在GitHub目前已累计49.5k+ Star。

DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

其核心技术灵感源自操作系统虚拟内存分页机制。此前LLM服务系统因采用连续内存存储KV缓存,导致内部/外部碎片化严重,且无法有效共享内存,极大限制了批处理规模。

针对这一问题,团队提出PagedAttention算法,允许将连续的键(key)值(value)对存储在非连续内存空间中,通过将KV缓存划分为固定大小的块(Block),利用块表动态映射逻辑块与物理块地址。

DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

在注意力计算过程中,PagedAttention内核会分别识别和获取不同的KV块。

下面是一个示例,键和值向量分布在三个块中,且这三个块在物理内存中并不连续。

DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

基于PagedAttention算法,团队构建了vLLM服务系统,其架构下图所示:

DeepSeek研究员1200行代码复刻vLLM,H800硬件实测性能反超原版

vLLM采用集中式调度器来协调分布式GPU工作节点的执行。

借助PagedAttention,KV缓存管理器以分页方式有效管理KV缓存。具体而言,KV缓存管理器通过集中式调度器发送的指令来管理GPU工作节点上的物理KV缓存内存。

vLLM实现了KV缓存内存近乎零浪费,请求内及请求间KV缓存的灵活共享进一步降低内存使用。

评估显示,与FasterTransformer和Orca等此前最先进系统相比,vLLM在相同延迟水平下将流行LLM的吞吐量提升2-4倍,且在更长序列、更大模型和更复杂解码算法场景中改进更为显著。

总结来说,vLLM灵活且易于使用,具备以下特点

与流行的Hugging Face模型无缝集成,包括类Transformer模型、混合专家模型、嵌入模型、多模态模型;支持通过各种解码算法实现高吞吐量服务,包括并行采样、波束搜索等;支持张量并行和pipeline并行,以实现分布式推理;支持流式输出;兼容OpenAI的API服务器;支持NVIDIA GPU、AMD CPU和GPU、Intel CPU和GPU、PowerPC CPU、TPU以及AWS Neuron;支持前缀缓存;支持多LoRA。

值得一提的是,在实现层面,vLLM前端基于FastAPI,后端是基于GPU的推理引擎。vLLM引擎由8500行Python代码和2000行C++/CUDA代码构成

而这次DeepSeek研究员仅用不到1200行代码就实现了轻量级vLLM,性能和原版相媲美。

参考链接:
[1]https://github.com/GeeeekExplorer/nano-vllm/tree/main
[2]]https://www.lamda.nju.edu.cn/yuxk/
[3]https://arxiv.org/pdf/2309.06180
[4]https://github.com/vllm-project/vllm

版权所有,未经授权不得以任何形式转载及使用,违者必究。

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 0
评论(没有评论)

文心AIGC

2025 年 6 月
 1
2345678
9101112131415
16171819202122
23242526272829
30  
文心AIGC
文心AIGC
人工智能ChatGPT,AIGC指利用人工智能技术来生成内容,其中包括文字、语音、代码、图像、视频、机器人动作等等。被认为是继PGC、UGC之后的新型内容创作方式。AIGC作为元宇宙的新方向,近几年迭代速度呈现指数级爆发,谷歌、Meta、百度等平台型巨头持续布局
文章搜索
热门文章
潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026

潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026

潞晨尤洋:日常办公没必要上私有模型,这三类企业才需要 | MEET2026 Jay 2025-12-22 09...
面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25

面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25

面向「空天具身智能」,北航团队提出星座规划新基准丨NeurIPS’25 鹭羽 2025-12-13 22:37...
5天连更5次,可灵AI年末“狂飙式”升级

5天连更5次,可灵AI年末“狂飙式”升级

5天连更5次,可灵AI年末“狂飙式”升级 思邈 2025-12-10 14:28:37 来源:量子位 让更大规...
钉钉又发新版本!把 AI 搬进每一次对话和会议

钉钉又发新版本!把 AI 搬进每一次对话和会议

钉钉又发新版本!把 AI 搬进每一次对话和会议 梦晨 2025-12-11 15:33:51 来源:量子位 A...
商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1

商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1

商汤Seko2.0重磅发布,合作短剧登顶抖音AI短剧榜No.1 十三 2025-12-15 14:13:14 ...
最新评论
ufabet ufabet มีเกมให้เลือกเล่นมากมาย: เกมเดิมพันหลากหลาย ครบทุกค่ายดัง
tornado crypto mixer tornado crypto mixer Discover the power of privacy with TornadoCash! Learn how this decentralized mixer ensures your transactions remain confidential.
ดูบอลสด ดูบอลสด Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Pretty! This has been a really wonderful post. Many thanks for providing these details.
ดูบอลสด ดูบอลสด Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
Obrazy Sztuka Nowoczesna Obrazy Sztuka Nowoczesna Thank you for this wonderful contribution to the topic. Your ability to explain complex ideas simply is admirable.
ufabet ufabet Hi there to all, for the reason that I am genuinely keen of reading this website’s post to be updated on a regular basis. It carries pleasant stuff.
ufabet ufabet You’re so awesome! I don’t believe I have read a single thing like that before. So great to find someone with some original thoughts on this topic. Really.. thank you for starting this up. This website is something that is needed on the internet, someone with a little originality!
ufabet ufabet Very well presented. Every quote was awesome and thanks for sharing the content. Keep sharing and keep motivating others.
热评文章
读懂2025中国AI走向!公司×产品×人物×方案,最值得关注的都在这里了

读懂2025中国AI走向!公司×产品×人物×方案,最值得关注的都在这里了

读懂2025中国AI走向!公司×产品×人物×方案,最值得关注的都在这里了 衡宇 2025-12-10 12:3...
5天连更5次,可灵AI年末“狂飙式”升级

5天连更5次,可灵AI年末“狂飙式”升级

5天连更5次,可灵AI年末“狂飙式”升级 思邈 2025-12-10 14:28:37 来源:量子位 让更大规...
戴尔 x OpenCSG,推出⾯向智能初创企业的⼀体化 IT 基础架构解决方案

戴尔 x OpenCSG,推出⾯向智能初创企业的⼀体化 IT 基础架构解决方案

戴尔 x OpenCSG,推出⾯向智能初创企业的⼀体化 IT 基础架构解决方案 十三 2025-12-10 1...
九章云极独揽量子位三项大奖:以“一度算力”重构AI基础设施云格局

九章云极独揽量子位三项大奖:以“一度算力”重构AI基础设施云格局

九章云极独揽量子位三项大奖:以“一度算力”重构AI基础设施云格局 量子位的朋友们 2025-12-10 18:...
乐奇Rokid这一年,一路狂飙不回头

乐奇Rokid这一年,一路狂飙不回头

乐奇Rokid这一年,一路狂飙不回头 梦瑶 2025-12-10 20:41:15 来源:量子位 梦瑶 发自 ...