英特尔通过替代产品规避英伟达在大语言模型领域的主导地位

622次阅读
没有评论

近年来,随着人工智能的广泛应用,底层计算芯片的需求不断增加。与传统 CPU 相比,GPU 更适合此类任务,因为它们提供了更好的性能,并在 AI 计算市场上抢得先机。

对此,在 WAIC 2023 期间,英特尔公司高级首席 AI 工程师、网络与边缘事业部中国区首席技术官张宇认为,推动本轮人工智能发展最核心的要素,实际上是计算、通讯和存储技术的不断提升。无论是大模型还是融合 AI,实际上边缘在整个 AI 生态系统中扮演着非常重要的角色。

张宇表示,「随着行业数字化转型,人们对于敏捷连接,实时业务以及应用智能等方面的诉求,推动了边缘人工智能的发展。但是边缘人工智能目前绝大部分的应用还处于边缘推理阶段。也就是说我们要利用大量数据以及极大算力在数据中心训练一个模型,我们把训练的结果推送到前端去执行一个推理操作。这是目前绝大部分在边缘实现人工智能的使用模式。」

张宇观察当前 AI 大型语言模型(LLM)的商业进展,仍未发现特别成功的商业模式和持久的使用场景,认为 LLM 的商业模式仍在摸索中。他进一步表示,目前 AI 训练市场的主流方案是英伟达高阶 GPU 无疑。

因此,英特尔计划推广专用 AI 芯片进行训练并不容易,但英特尔仍计划将旗下 AI 芯片 Habana Gaudi 2 引进中国市场,这一款产品将是落实英特尔 AI 战略的关键一环。

英特尔 2019 年底斥资 20 亿美元收购以色列初创芯片企业 Habana,如今成了另辟蹊径挑战英伟达的利器。张宇表示,专门针对 LLM 训练任务设计的 Habana Gaudi 2 芯片,是试图打破主流 GPU 方案的尝试。

张宇认为,网络互连对 LLM 的训练推理任务也同样重要,英特尔将以自身在网络技术领域的累积,试图解决 AI 大型语言模型的网络瓶颈问题。

此外,英特尔在 FPGA 方案基础上开发基础设施处理器(IPU),本质上也就是 DPU,而英特尔尝试提高网络传输的考靠性,该功能也包含在其即将发表的新一代 IPU 产品中。

来源:站长之家

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy