面对大模型如雨后春笋般的发展态势,业内发出“不要让大模型变成一场华丽的烟花秀”的声音,不免让人思考,在成本高昂的生成式AI游戏场中,哪类企业会最终胜出,又能否出现可持久的商业模式?
北京时间7月27日,亚马逊云科技在纽约峰会上一连发布了七项生成式AI创新,涵盖了从底层硬件到工具、软件、再到生态的全方位更新,成为它在该领域迄今最全面的一次升级展示,同时也进一步降低了生成式AI的使用门槛。
亚马逊云科技不算大模型领域最早的入局者,但凭借自身端到端的实力向业界给出了一个独特的视角——源于亚马逊云科技丰富的终端业务场景(如电商零售、影音娱乐、云计算)、以用户为出发点考虑问题,这些生成式AI更新都是紧贴行业、为解决实际应用中的难题,并经过用户实际测试可行性后才推广的。
那么,生成式AI在实际应用层面存在哪些痛点呢?
数据的滞后性问题
大模型训练通常根据互联网上海量的公开数据集进行,但前不久OpenAI因涉嫌窃取用户隐私被诉讼,让隐私与可信问题受到更大范围关注。知名论坛Reddit也宣布要对数据抓取行为收费,提高API接口的使用门槛。围绕生成式AI的数据层面,隐私伦理问题被放大,而背后还有一个滞后性问题易被忽略。
例如在电商场景中,用户网购了一件衣服后想换一个色号,去问机器人客服。这样一个看似简单的询问背后牵涉到多部门EPR系统的实时数据交互,比如该色号是否有对应尺码库存,该订单是否在退换期限内,商品价格是否出现了调整……这些问题是无法依靠通用模型得到解答的,必须与企业内部ERP系统数据和知识库做交互,才可能给出准确的回复。包括在电商大促期间,面对每天几万、数十万订单处理量时,数据库如何做到既不“超卖”、又不“漏单”,还能实现有效售后退换……这一系列操作难度极大。
除此之外,很多其他交互应用场景中也同样存在这个问题,如果大模型不能获取最新数据库信息,对外就很难及时性、针对性、个性化的输出结果。
那么,客服AI的开发者如何实现大模型与企业内部最新数据做安全交互?这涉及到将任务拆解为多个复杂步骤、编写代码、封装API等一系列复杂流程。此外,开发者还要规划和管理所需的基础设施,并设置数据隐私和安全权限等,在流程上将耗费大量精力。
在这次纽约峰会上,亚马逊云科技在AI平台上一项令人瞩目的更新Amazon Bedrock Agents可以解决上述开发中的复杂度难题。作为一项全托管的功能,这个代理可以自动分解任务并创建编排计划,无需手动编码。它通过简单的API接口安全地连接企业内部数据,自动将最新数据转换为机器可读的格式,以生成最准确的回答,同时云服务的特性也让用户省去了开发者的系统集成管理和基础设施配置工作,整个过程中私有数据不会暴露给对外大模型。
这个设计理念和OpenAI发布的插件Plugin类似,可以让ChatGPT访问最新信息或者接入第三方服务来运行计算,比如赛事比分、股票实时交易价格、航班价格信息等。这也相当于给一部iPhone开发了App Store商店社区,极大丰富了它深入互联网的“触手”,以收集终端用户的反馈,再反哺给模型。
该选择哪个模型?
现在大模型发展如雨后春笋,企业开发者在面临选择时要考虑的因素越来越多,比如模型本身的算力、通用性、稳定性、模型的企业服务能力、全栈技术布局程度、与企业自身业务的匹配度等,最直接的是如何低成本、高效率地使用大模型。
不是一个模型就能完成所有的业务,但客户也没有必要了解所有模型后再选择合适自己的。亚马逊云科技就承担了精选模型这一环节。
今年4月份上线的全托管基础模型服务Amazon Bedrock反响良好,本次纽约峰会上这一服务也进行了重量级的扩展和更新,包括新增Cohere(英伟达领投的AI公司)作为基础模型供应商,并引入Anthropic(从OpenAI拆分出去的AI初创公司)和Stability AI(目前“文生图”领域一哥)的最新基础模型。
具体包括Cohere公司的旗舰级文本生成模型Command,可以更直观地生成、检索和汇总信息;Anthropic公司把最新的语言模型Claude 2接入到Amazon Bedrock,Claude 2可以在每个对话任务提示中最多标记10万个tokens,意味着它能处理数百页的文本;Stability AI公司在Amazon Bedrock上发布了最新版的文生图模型套件Stable Diffusion XL 1.0,比前一代具备更精细化的图像和构图细节。
这样,Amazon Bedrock这个开发平台上既提供了亚马逊云科技自研的模型Amazon Titan(包括Titan Text和Titan Embeddings),也汇集了越来越多的第三方模型,这个逐渐搭建起来的生态结合亚马逊云科技的底层稳定性,增强了开发者的使用黏性。
与此同时,开发者无需分心基础设施层面的事,通过API接口就可以访问这些行业领先的基础模型,以构建和扩展自己的AI应用程序,增加了客户选择模型的灵活度。
英伟达依赖?
这可以归结为一个成本考量问题。OpenAI目前最重要的一项任务是降低大模型训练成本,可见大模型是一个成本持续消耗的昂贵的生意,这传导给下游的模型调用者和应用企业,也会面临成本压力。
这在一定程度上受限于“英伟达依赖”。英伟达的GPU明星产品是全球公认的性能强大,但也是公认的贵,最近在eBay上最新H100芯片单价已经被炒到4万美元。据业内观察,英伟达A100、H100芯片供不应求,大多数被全球云计算大厂、有实力金主支持的AI创业公司(比如马斯克成立的AI公司)以及技术模型公司等买走了。
亚马逊云科技在本次纽约峰会上宣布Amazon EC2 P5实例正式可用,背后就是使用的英伟达最新H100 Tensor Core GPU芯片。与上一代基于GPU的实例相比,其训练时间最多可缩短6倍,直观印象是训练时间从几天缩短至几小时。这一性能提升可以帮助客户降低40%左右的训练成本。
在“一卡难求”的竞争局面下,亚马逊云科技与英伟达之间的战略合作关系可以保证后者芯片供应的稳定性和迭代及时性。对于那些性能和稳定性较敏感的客户,增加了一个选择亚马逊云科技的筹码。
而更具有未来战略意义的是自研芯片。由于英伟达GPU是通用型结构,在处理一些任务时并没做针对性的优化,亚马逊云科技坚持了自研芯片的道路,这是在云计算时代就已选择的策略,最早可追溯到2013年,比如它的Nitro芯片和通用处理器芯片Graviton。其他如谷歌、百度、阿里巴巴等云厂商也在走这条路,深入到底层去做定制化研发。
目前,亚马逊云科技可以用来跑大模型任务的两款自研芯片分别是训练芯片Trainium和新一代推理芯片Inferentia 2。前者与通用型GPU实例相比,可以为客户实现最高50%的训练成本节省;后者可以实现最高40%的性价比提升。亚马逊云科技一直以来是云服务降价的推动者,自提供云服务以来,它已经实现了129次降价。如今,在生成式AI时代,亚马逊云科技似乎也想延续这一策略,以价格传导机制给下游客户带来更多实惠。
伴随通用大模型喧嚣渐远,生成式AI贴近产业的近身战才刚刚开始。
通过最新发布可以看到,亚马逊云科技并未一味追求模型的大而全,而是从客户实际需求出发,持续降低客户使用大模型的门槛和成本。一方面,源于亚马逊云科技常年来在电商、云计算等多元场景中深入理解了C端和B端用户,以及各行业的规律,才有了这种实用性的客户视角;另一方面,这一目标的实现十分考验背后积累的端到端全栈技术能力,从底层芯片、框架、到工具软件、应用生态,亚马逊云科技在云时代端到端的积累正让它继续受益,成为这一轮生成式AI竞赛中的领导者。
更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App