“百模大战”爆发 中国半导体亟需的“第二解”
作者/ IT时报记者 范昕茹
(资料图片仅供参考)
编辑/ 王昕 孙妍
今年世界人工智能大会(WAIC 2023),大模型成为最耀眼的存在。在经历了半年多的准备期之后,国产大模型在WAIC上全面爆发,堪称“百模大战”。正所谓“巧妇难为无米之炊”,“百模大战”背后的国产芯片挑战也随之战略升级。
7月6日,“从‘端’到‘云’,勇攀‘芯’高峰”主题芯片论坛在上海张江科学会堂举行。面对大模型的狂飙,来自半导体业内的专家和企业家仍然牢牢将目光聚焦于国产芯片产业链对国外厂商产品的替代话题。
新架构+开源
破题“第二解”
AI的发展,让行业见证了英伟达一次次创造历史。
2020年7月9日,英伟达市值首次超越曾经的半导体霸主英特尔。仅仅两年之后,2022年下半年,ChatGPT的出现,将英伟达的市值一路推高,直至超越万亿美元,将其他所有芯片公司远远甩在了身后。
“一家芯片公司超越万亿美元市值,这是半导体行业的里程碑。”燧原科技创始人、董事长兼CEO赵立东说。
英伟达成功的背后,既是算力需求疯狂暴涨的托举,也是英伟达押注GPU芯片赛道的一次胜利。多家机构预测,至2030年,全球半导体市场规模将超万亿美元。
大模型背后庞大的算力市场让不少企业将目光瞄准GPU芯片。去年,多家国内厂商涌入GPU芯片赛道。然而,随着地缘政治因素的日益复杂,大模型蜂拥而至时,算力供不应求,在这样的节点,英伟达是否仍是那个绕不过的答案?
“行业需要第二解。”在赵立东看来,尽管第一波大模型的训练基本都依赖英伟达芯片,但市场对AI芯片的需求是高性能、高带宽、高存储、高通用性、高效分布式计算和集群互联。赵立东解释:“这已经不是一个单芯片了,它实际上是在讲系统集群的概念,在讲分布式计算。”要解决这个问题,必须在架构、能耗和集群上突破。
尽管在大多数人的设想中,未来算力应该如水电一般,人人都可取用自如,但想要实现上述场景的重要前提之一就是算力普惠——“普”意味着需要时可以获取,“惠”则保证算力使用者负担得起。赵立东坦言,如今算力既不普,也不惠。当前算力领域存在用能耗换算力的现状,市场缺乏多样性导致运算费用昂贵,急需第二方案。
“如何实现算力普惠?燧原科技给出的答案是要以创新的架构加开源的生态。”赵立东解释说,创新的架构、开源的生态可以促进市场化竞争和技术创新,以满足市场的性价比、能效比等需求。
创新的架构加开源的生态还意味着可以用非GPU芯片来做AI加速。“无论你把它的名字叫做DSA,还是NPU,大家都对其通用性有质疑,”赵立东说,“我觉得这是市场的误解。”在他看来,创新架构、开源生态的产品同样具备通用性和易用性,能够加速产业和各种应用的落地,促进产业发展,帮助标准形成,并构建软硬件生态的闭环。
未来60年
将是集成系统的时代
尽管大模型的狂飙突进、算力需求的激增给全球芯片产业极大地注入了活力,但芯片制造业仍然面对着摩尔定律衰退的难题。
在半导体产业近60年的发展历程中,摩尔定律作为经典范式,见证了行业的辉煌。然而近年来,摩尔定律衰退也是事实。尽管关于摩尔定律是生是死仍未有定论。但在英特尔和英伟达的争论背后,对应了行业的两种不同选择:“延续摩尔定律法”或“绕道摩尔定律法”。
在中国科学院院士、深圳大学校长毛军发看来,集成系统将是绕道摩尔定律的重要路径之一。“如果说过去60年是集成电路IC时代的话,”他说,“未来60年很可能就是集成系统IS的时代。”
所谓集成系统,是从系统角度进行一体化设计制作,将各种芯片、传感器、元器件、天线、互连线等制作集成在一个基板上,形成具有预期功能的系统。相比于传统的集成电路,所有芯片和元器件在结构上组成一个整体,可以使系统高密度、小型化、强功能、低功耗、低成本、高可靠、易设计、易制作。当前产业熟知的小芯片、无源元件、封装天线和异质异构集成技术等都是集成系统的体现和雏形。
国际范围内,各国产业界都对异质异构集成非常重视,美国、日本、新加坡、欧洲等都有相关的计划,如联合微电子计划、电子复兴计划等。毛军发说:“美国希望通过异质异构集成使得系统的能力再提高100倍,重量、体积、功耗下降到目前的1%,这相当于摩尔定律还在往前走,效果是一样的,只不过路径不一样。”
尽管集成系统需要跨尺度、跨材料、跨工艺、跨维度、跨物理进行集成,难度较大,但对我国芯片产业而言,集成系统路径本身就十分重要。由于集成系统是从系统层面进行顶层规划、协同设计、融合制造、一体化集成,它站得高、看得远,可以使芯片制造效率大大提高,弱化芯片单体的作用。另一方面,用相同的工艺实现更高的性能,也可以弱化EUV光刻机等半导体设备对我国产业的限制。
“系统集成的思路不仅可以进一步提高系统的设计效率和综合性能,减少成本,增加其可靠性,更重要的是,它还能够降低对芯片设计及设备的要求,”毛军发说,“这对我国,对上海而言,都是一个弯道超车的机会。”
大模型算力的下一场
从云到端
除了芯片设计、制造侧的变革,在应用端,随着行业数字化转型,大模型正逐渐从云上走向端侧。
在今年世界移动通信大会MWC上,高通在手机端实现了超10亿参数大模型的推理演示,展示了大模型在端侧的应用,而在智能汽车、智能手表等终端上,越来越多的人工智能大模型开始发挥更显著的效用。
在高通全球副总裁兼高通AI研究负责人侯纪磊看来,端侧的人工智能正在变得越来越重要,这是因为端侧AI有其明显优势。侯纪磊解释,相比在云端部署大模型和生成式AI应用,端侧具有更强的隐私性,也更利于成本摊平,有利于算力普惠的推进。而在个性化方面,端侧大模型的部署更有利于AI结合用户个人特质,进行个性化的微调,能加速个人助理类应用在端侧的落地。
尽管敏捷连接、隐私保护方面的诉求推动了人工智能的发展,但在英特尔(中国)网络与边缘事业部CTO、英特尔高级首席AI工程师张宇看来,边缘人工智能目前绝大部分的应用还处于边缘推理阶段。也就是说,在云端完成人工智能的训练,再将人工智能推送到端侧去执行推理,这是目前绝大部分边缘端人工智能的使用模式。
从实际的市场需求来看,端侧对大模型及人工智能相关应用的要求显然更高。张宇举例,在自动驾驶领域,一个好的自动驾驶系统需要适应复杂路况,并针对不同驾驶员的驾驶行为进行调整,这就需要将人工智能训练集成到端侧,在不断训练中自我优化。
“因此人工智能发展的第二个阶段应该是边缘训练阶段。”不过,张宇并不认为边缘训练可以照搬数据中心的训练方式。由于端侧往往没有专门的标注和训练人员,因而如果要实现边缘训练,就需要有更加自动化的手段和工具去完成从数据标注到模型训练,再到模型部署这一整套开发流程。这就要求企业在软硬件各方面进行全栈的创新和优化。
“应该说推动本轮人工智能发展最核心的要素,实际上是计算、通讯和存储技术的不断提升。”在张宇看来,边缘人工智能下一步的发展方向应该是自主学习。到那时,人工智能应该能够感知人的意图,并根据人的意图自主选择合适的模型进行训练,再把训练结果自主推送到前端去执行相应的推理操作,完成一整套自主化学习的成熟流程。
排版/ 季嘉颖
图片/ WAIC
来源/《IT时报》公众号vittimes
E N D
关键词: