英伟达创始人兼CEO黄仁勋(Jensen Huang)
受AI(人工智能)大模型热潮影响,算力需求大增。在核心GPU(图像处理器)加速计算芯片供不应求下,英伟达加速推出新一代算力更快的芯片以持续巩固“大模型军火库”地位。
北京时间8月8日晚23点,在美国洛杉矶Siggraph计算机顶级会议上,英伟达CEO黄仁勋发布一系列专为大模型打造的最新算力产品。
其中包括英伟达最新 AI 处理器GH200 Grace Hopper Superchip芯片,专为处理世界上最复杂的生成工作负载而生,今年5月起生产,预计将于2024年第二季度交付;同而且英伟达还推出一种专为简化模型部署打造的新的统一软件工具包NVIDIA AI Workbench,以及搭载全新L40S Ada GPU的新款服务器等。
“图形和人工智能密不可分,图形需要人工智能,AI 也需要图形。”黄仁勋在演讲中表示,我们用 AI 重塑计算机图形的同时,AI 也在彻底重塑 GPU。
事实上,随着ChatGPT引发AI大模型需求热潮,作为加速计算领导者,英伟达今年以来股价累计涨幅已超过210%,近三个月内涨幅就达56%,过去7年股价增长超40倍,目前市值冲破1.1万亿美元。公开数据显示,英伟达占据全球80%以上的GPU服务器市场份额,同时拥有全球91.4%的企业GPU市场份额。
据投资者服务公司穆迪今年5月份发布的一份研究报告,英伟达在未来几个季度将实现“无与伦比”的收入增长,其数据中心业务的收入将超过竞争对手英特尔和AMD的总和。但摩根士丹利策略分析师斯坦利(Edward Stanley)在最新报告中称,根据历史背景,英伟达的股价飙升处于“后期”阶段,摩根士丹利认为这标志着 AI 行业的“泡沫”。
GPU持续紧缺下,如今,英伟达产品价格已同比上涨超30%,英伟达A800单卡现货近13万元一颗,eBay上H100售价高达4.5万美元。同时,OpenAI的GPT-4大模型需要至少2.5万张英伟达A100 GPU芯片,而该公司目前至少已拥有1000万颗GPU芯片。
正如黄仁勋常说的,“你GPU买的越多,你越省钱”。主要原因是新的GPU产品能显著提升加速计算,比CPU性能更强、算力更大、功耗更低。
此次,英伟达发布全球第一款HBM3e GPU芯片——NVIDIA GH200 Grace Hopper Superchip(超级芯片),拥有72核Grace CPU和4PFLOPS Hopper GPU组成,使用高达141GB的高带宽内存HBM3e,提供每秒5TB的带宽,容量比H100 GPU高1.7倍、带宽达1.55倍。产品可以用于任何大型语言模型,降低推理成本。
不仅如此,黄仁勋这次还宣布推出新一代GH200 Grace Hopper超级芯片平台,该平台能够连接并扩展多个GPU,双GH200系统配置内存容量增加3.5倍,带宽增加3倍,包括一台具有144核基于Arm Neoverse的Grace CPU、8 PFLOPS的AI 性能和282GB最新HBM3e高带宽内存技术的服务器。如果将连接到CPU的LPDDR内存包括在内,那么整体集成1.2TB内存容量。
据悉,超级芯片将成为新型服务器计算设计的核心,可以处理更多信息并更快地访问信息,尤其是 AI 训练数据庞大,急需加速卡实现计算,在AMD、英特尔努力追赶下,英伟达正在加速巩固起 AI 算力技术优势。如果芯片能够一次性加载模型并更新它,那么 AI 训练速度就会得到提升,节省电力并加快整个过程。
GH200将在新的服务器设计中提供,GH200用高速互连技术将CPU和GPU两颗die“粘”在一起,通信速率比PCIe Gen5快7倍,而且机架装上NVIDIA BlueField-3 DPU和ConnectX-7网卡等产品,由256块GH200组成的NVIDIA DGX GH200 SuperPod,拥有高达1EFLOPS的算力和144TB高速内存,成为英伟达生成式AI时代的最新AI超级计算机。
据透露,英伟达计划销售两种版本:一种版本两个可以集成到系统中的芯片提供给客户,另一种是结合了两种Grace Hopper设计的完整服务器系统。
英伟达透露,NVIDIA GH200芯片已经于今年5月投入全面生产,预计将在2024年第二季度交付基于该平台的系统。
此外,英伟达还公布了诸多产品:
- 面向生成式AI和大模型开发、数据科学等场景,英伟达推出搭载RTX6000 Ada GPU的全新NVIDIA RTX工作站,提供高达5828TFLOPS的AI性能和192GB的GPU内存,预计今年秋季发货。
- 最新采用4nm定制版工艺的三款新的桌面Ada GPU NVIDIA RTX 5000、RTX 4500和RTX 4000,提供最新的AI、图形和实时渲染技术。截至目前,RTX 5000现已上市,售价为4000美元,
- 英伟达与拥有200万用户的全球最大AI开源社区Hugging Face合作,在未来几个月内平台推出由NVIDIA DGX Cloud提供支持的“训练集群即服务”,以简化为企业创建新的和自定义生成式AI模型。
- 推出NVIDIA AI Enterprise 4.0软件,把DGX Cloud中的所有功能放到该软件中,以及NVIDIA AI Workbench,将生成式AI模型打包放到任何终端设备或云端。
- 具有生成式AI和OpenUSD的NVIDIA Omniverse虚拟现实技术实现升级,用于跨工具构建、模拟和协作,利用OpenUSD框架和生成式 AI优化和增强3D流程,为企业提供新的基础应用程序和服务。据悉,上周英伟达宣布与Pixar、Adobe、Apple和Autodesk共同成立OpenUSD架构联盟。
英伟达表示,上述这些新品旨在将英伟达过去十年的所有创新——人工智能、虚拟世界、加速、模拟、协作等结合在一起。
“为了满足生成式 AI 不断增长的需求,数据中心需要具有特殊需求的加速计算平台。”黄仁勋表示,“这就是世界数据中心迅速转向加速计算的原因。”
黄仁勋再次在演讲中重申,“生成式 AI 时代即将到来,如果你愿意的话,那将是 iPhone 时代”。
(本文首发钛媒体App,作者|林志佳)
更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App