AMD首席执行官苏姿丰Lisa Su手拿新产品
随着ChatGPT热潮让英伟达A100/V100 AI芯片成为市场上的“抢手货”,如今AMD(超微半导体)公司希望通过新的 AI 处理器产品分下这块“蛋糕”。
钛媒体App 6月14日消息,今晨美国旧金山举行的新品活动上,AMD发布一系列数据中心和 AI 芯片产品。
其中包括全新第4代AMD EPYC服务器CPU处理器Genoa;专为云计算和数据中心计算、拥有128核的第四代霄龙vCPU 处理器Bergamo;全新专为生成式 AI 打造、拥有1530亿个晶体管的 AI 加速芯片Instinct MI300X;拥有1460亿个晶体管的Instinct MI300A,以及移动端AMD Ryzen PRO 7040系列移动处理器与Ryzen AI,并且宣布亚马逊AWS、甲骨文Oracle等云计算厂商合作部署。
AMD公司董事长兼CEO 苏姿丰(Lisa Su)表示,今天,AMD在数据中心战略上又向前迈出了重要一步,因为推出第四代霄龙处理器系列,为云和技术计算工作负载提供了新的领先解决方案,并宣布与最大的云计算提供商的新公共实例和部署。
苏姿丰强调,“AI 是塑造下一代计算的决定性技术,也是AMD最大的战略增长机会。我们专注于加速 AMD AI 平台在数据中心的大规模部署,计划于今年晚些时候推出Instinct MI300 加速器,以及为硬件优化的企业级 AI 软件生态不断壮大。”
AMD公司成立于1969年,与英伟达、英特尔并称全球三大服务器芯片巨头,也是全球第五大 IC 设计巨头,最新市值为2050亿美元。不过目前,英伟达在 AI 加速芯片市场占据主导地位,市场份额超过80%;另外,英特尔在服务器CPU市场份额在70%左右。
如今,AMD公司希望通过新的数据中心和服务器产品组合,对抗英特尔和英伟达。
具体来说,MI300系列 AI加速芯片是今年1月CES展会上披露的产品阵容的一部分。在ChatGPT风靡全球下,AMD正加速满足市场对 AI 大模型计算爆发中的需求。
苏姿丰表示,生成式AI和大语言模型(LLM)需要电脑的算力和内存大幅提高。预计今年,数据中心AI加速器的市场将达到300亿美元左右,到2027年将超过1500亿美元,复合年增长率超过50%。这意味着未来四年的CAGR将会超过50%。“我们仍处在 AI 生命周期的非常早期阶段。”
产品方面,AMD Instinct MI300X是一款对标英伟达H100的产品,采用基于CDNA 3架构的8个GPU Chiplet(芯粒),以及另外4个I/O 内存Chiplet组成的芯片,没有集成CPU内核,晶体管数量达到1530亿个,客户可以在单个MI300X芯片上轻松跑出400亿参数的大模型。而且AMD还推出Instinct平台,将八个MI300X加速器整合到一个行业标准设计中,为AI推理和训练提供解决方案。
苏姿丰表示,MI300X 的内存密度是英伟达Nvidia H100“Hopper”GPU的2.4倍,内存带宽是1.6倍,但她没提到性能提升情况。AMD透露,MI300X将从今年第三季度开始向客户提供样品。
同时,AMD还推出Instinct MI300A。这是全球首款面向AI和HPC的APU,采用异构CPU+GPU计算,集成24个Zen 4 内核、CDNA3 GPU内核,拥有1460个晶体管。与MI250相比,MI300A性能提高了8倍,效率提升5倍。AMD称MI300A现已向客户提供样品。
此外,AMD还更新了第4代AMD EPYC(霄龙)CPU处理器并公布了路线图,其中包括转为数据中心一般更新的Genoa;专为云原生计算打造、代号为Bergamo的AMD EPYC 97X4 处理器,以及代号为Genoa-X的第二代 EPYC 3D V-Cache CPU,以及在下半年发售的Siena。
其中,AMD EPYC Genoa在云工作负载中的性能是英特尔第四代可扩展至强处理器的1.8 倍,在企业工作负载中的速度是英特尔至强处理器的1.9 倍。苏姿丰谈到,绝大多数人工智能都在 CPU 上运行,AMD产品在性能方面比英特尔至强8490H具有绝对领先优势,性能高出1.9倍,效率也同样是竞争对手的1.8 倍。
另一款AMD EPYC Bergamo系列CPU基于台积电5nm工艺,采用最新Zen 4C内核,封装了总共820亿个晶体管,内核数量高达128个,专为需要最多内核的密度优化服务器而设计,直接对标NVIDIA Grace CPU、即将到2024年上半年推出的英特尔Sierra Forest等。在各种云原生工作负载中,相比英特尔至强8490H CPU,AMD EPYC 9754 “Bergamo”芯片拥有高达2.6倍的性能提升。
而在移动和台式端,AMD发布了锐龙Pro 7040系列处理器,基于4nm工艺,配备多达8个Zen 4内核和 RDNA 3 集成显卡。与x86竞品相比,锐龙7 PRO 7840U 处理器性能平均提高17%;与苹果M2 Pro 处理器相比CPU性能提高18%;同时锐龙Pro系列还内置了锐龙AI,也是世界上第一个在x86上集成的AI引擎技术。从本月开始,惠普和联想等厂商会发售锐龙PRO处理器产品。
除了硬件,AMD还披露了其最新 AI 软件生态系统开发体系理念——Open(software approach)、Proven(AI capability)和Ready(support for AI models),将开放、成熟和就绪的AI软件平台推向市场。AMD现场展示了用于数据中心加速、一套完整软件栈工具AMD ROCm系统,包括为PyTorch 2.0提供即时“零日”支持,AI 模型“开箱即用”等。与英伟达独有的CUDA生态不同,AMD不仅兼容CUDA,而且要做一个开放平台并完善生态。
软件这部分由原赛灵思CEO、现AMD总裁Victor Peng负责。同时赛灵思方面此前透露,AMD已经把SoC,FPGA捆绑在一起,提供更高效的生产线。
Pensando DPU路线图(来源:AMD)
值得注意的是,AMD在此次会议上还首次公布其全新DPU(数据处理器)规划,这是他们通过去年10月收购Pensando所获得的技术,公布AMD P4 DPU架构,称是世界上最智能的DPU。而其代号为“Giglio”的下一代 DPU预计将于2023年底上市,基于5nm制程工艺的800G DPU Salina将于2024年上市。(本文首发钛媒体App,作者|林志佳)
更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App