来源:视觉中国
作者|张睿
(相关资料图)
编辑|康晓
随着以ChatGPT为代表的大语言模型成为人工智能的新范式,大模型的预训练和推理所需的算力需求正呈指数级增长。算力是大模型发展的关键基础,各大科技公司在开启算力储备赛的同时也面临算力成本日益增加的压力。
据外媒Analytics India Magazine报道,ChatGPT每天的运营成本为70万美元(当前约合人民币508万),由于OpenAI 目前财政状况不佳,其可能在 2024 年底破产。
AI芯片是大模型实行预训练和推理任务的算力基座,高端GPU的数量基本决定了一个厂商能够练多大的模型,业内一种公认说法是,做好AI大模型的算力门槛是1万枚英伟达A100芯片。在这个背景下,抢购AI芯片已经成为发力大模型的科技公司的常规动作。
有消息透露,日前,百度、字节跳动、阿里巴巴等已下价值10亿美元的订单,从英伟达定购约10万颗A800处理器,这些处理器将于今年交付。
AI芯片不能直接作用于各种应用场景,而是以服务器核心组建的形式存在。对此,有服务器厂商人士对《深网》透露:“现在AI服务器供不应求,订单已经排到了一年以后。”
从成本上看,抢购高性能AI芯片带来的费用已经成为不少公司难以承受之重。有知情人士给《深网》算了一笔帐,“一台通用计算服务器的成本大约在5万块钱左右,现在满配的GPU的服务器价格在100万-200万元之间,一个算力集群一般要配备500台服务器,搭建一个算力集群的成本就在几十亿元。”
如此庞大的算力成本,对于任何一家正处在发展期的科技公司,无疑是严峻的考验。在智能技术不断涌现的今天,科技公司如何才能在不错过大模型风口的同时,有效的控制算力成本?
对此,联想集团副总裁、中国区方案服务业务群总经理戴炜在2023中国算力大会上对《深网》分析称:“现在是不计任何成本的暴力计算时代,粗放式发展的同时大家都在抢GPU,未来这一定是不可持续的。提供算力服务首先要帮助客户把应用场景分析清楚,弄清哪些场景需要智算、哪些需要超算、哪些需要通用的混合计算,在此基础上,按照咨询、设计、集成、部署、运维等一系列集成方案,帮客户搭建具有最优成本结构的混合架构,为客户做全栈全周期服务。”
在戴炜看来,不论客户要买算力,还是要买设备,最终目的都是为了计算,如果有一种更方便的方式,像水电煤一样提供给客户,客户将选择直接购买算力。在混合算力架构下,算力本身就成为了一种服务。
“直接购买算力不仅可以省去筹备、储备算力的各种环节,也可以节省雇佣专门人员维护设备和系统等额外花费。”
联想集团副总裁戴炜
为了落实像买水电一样买算力的设想,按照电力、数据、GPU的使用量、储存等定制化方式购买算力和服务,联想集团在2023中国算力大会上推出了两款AI服务器新品,还发布了三大类解决方案:联想大脑嵌入的解决方案、联想智算中心解决方案、联想绿色低碳智算中心基础设施。希望通过算力即服务的方式,帮助更多有需要的企业。
事实上,在提供算力基础设施及服务方面,华为、AMD、阿里、三大电信运营商等都有所布局,联想做算力及方案服务业务的优势在哪里?
对此,戴炜对《深网》解释称,联想方案服务不同于其他服务商之处,应该是“两个全”:“我们是把智慧方案服务作为一个主要抓手,去整合内部的产品资源,变成一个整体的解决方案给客户,总结下来就是两个全,全栈及全周期服务。”
目前,基于联想高性能计算集成方案 Lenovo xCloud,吉利汽车集团打造了吉利星睿智算中心·智能仿真平台,该科学计算平台的算力能够完成12000+次/辆的虚拟安全碰撞,还能大幅降低 TCO(全周期使用成本)。
“吉利汽车的案例很有代表性,从智能制造的角度看,我们都是制造型企业,有着很多的相似性,我们也都是全球性布局。当时这个项目做完,大语言模型还没有火,我们叫它超算中心,已经具备了多云和多算力的显著特点。”戴炜说。
吉利汽车的案例也成为联想提供高性能计算集成方案的路径之一:从具体场景和用户痛点切入,为用户提供咨询、设计、集成、部署、运维等全周期算力服务。
关键词: