训练、推理、部署、LLMOps,大厂的大模型全链路实践

460次阅读
没有评论

大模型如何革新AI基础软件在训练、推理、部署上的技术?如何基于开源框架维护自己的大模型?面向大模型的MLOps——LLMOps有哪些全新的要求?

在9月15日9:00-17:00举办的DataFun Summit 2023大模型与AI基础软件峰会主论坛上,来自华为、腾讯、百度的专家将带来最新的大模型落地案例,为你详解大厂的大模型全链路实践。

👇扫描下方海报二维码免费报名观看

训练、推理、部署、LLMOps,大厂的大模型全链路实践

于璠 华为 软件领域科学家、昇思MindSpore技术总经理、AI4Sci LAB主任

个人介绍:于璠博士,中国科学技术大学计算机博士毕业,华为工作14年,现任华为软件领域科学家、昇思MindSpore技术总经理、AI4Sci LAB 主任,获得中国软件协会卓越工程师、OSCAR 开源人物,获聘哈尔滨工业大学客座教授、西电客座教授,主持科技部2030人工智能重大专项,主导华为AI系统核心算法、云计算资源调度、SDN大规模路由等架构和算法的设计和落地,发表专利和论文40余篇。

🔥演讲题目:AI 框架业界趋势及 MindSpore 实践

演讲提纲:人工智能模型训练是一项需要高级技能的,专家的工作,高技术门槛、高开发成本、长部署周期等问题阻碍了全产业AI开发者生态的发展。为了助力开发者与产业更加从容地应对这一系统级挑战,新一代AI框架MindSpore专注于大模型高效训练推理、AI科学计算,降低了AI开发门槛。本次演讲与大家分享AI框架的挑战、MindSpore的解决思路、MindSpore的实践等内容,期待与大家进行一次思维的碰撞。

胡晓光 百度 杰出架构师

个人介绍:胡晓光,百度杰出架构师,研究方向自然语言处理、深度学习框架、AI科学计算等。现负责飞桨训练框架核心技术研发,设计了飞桨2.0全新API体系;牵头研制飞桨高阶自动微分、深度学习编译器等技术,支持AI科学计算的创新应用;牵头研制了飞桨产业级开源模型库,助力飞桨位列中国深度学习平台市场综合份额第一。曾获国家科技进步二等奖1项,省部级科技进步一等奖3项。

🔥演讲题目:大模型时代的深度学习平台发展思考和飞桨实践

演讲提纲:大模型时代深度学习技术演进对深度学习平台提出了新的需求,本报告介绍深度学习平台的发展思考和飞桨开发实践,包括飞桨框架2.5版本的核心架构升级和大模型训练、部署、多硬件适配方面的工作。

🎁听众收益

1. 大模型时代深度学习平台所面临的挑战

2. 深度学习平台的技术演进思路

3. 飞桨深度学习平台技术特色


陶阳宇 腾讯 TEG 机器学习平台部总监

个人介绍:陶阳宇,毕业于中科大电子专业,博士学历,15年机器学习、大数据、云计算相关领域经验,曾在微软MSRA、阿里云从事大规模分布式系统研发,现任腾讯TEG机器学习平台部总监,负责腾讯太极MLOps机器学习平台的研发,支持海量数据、万卡大规模GPU集群的模型训练、推理部署,研发的Angel系列AI框架AngelGraph、AngelRec、AngelPTM等支持了腾讯广告、视频推荐、金融风控、AIGC大模型等多个应用场景,大幅提升AI落地效率,降低资源成本。曾获中国电子学会科技进步奖特等奖,清华大学、北航研究生客座讲师,在NIPS/VLDB/SIGMOD等国际学术会议发表多篇论文。

🔥演讲题目:腾讯太极 LLMOps 大模型平台实践

演讲提纲:大语言模型技术正在飞速发展,从机器学习平台角度,如何管理好大模型研发应用整个生命周期至关重要,包括数据管理、资源管理、模型开发、训练评估、推理部署等方面,本次分享以腾讯太极LLMOps大模型平台实践为基础,探讨大模型场景,平台如何提高模型研发效率、降低资源成本。具体包括:

1. LLMOps基础简介

2. 太极大模型平台

3. 数据飞轮与管理

4. 模型训练与推理框架

5. 性能优化与成本

6. 大模型集群稳定性

🎁听众收益

1. 如何通过框架性能优化,降低大模型30%成本?

2. 如何提高大模型千卡训练稳定性?

3. 大模型 LLMOps 平台如何建设?

训练、推理、部署、LLMOps,大厂的大模型全链路实践扫码免费报名观看

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy