在2023世界人工智能大会(WAIC2023)上,AI“百模大战”硝烟再起。百度的文心一言、阿里巴巴的通意千问、华为云的盘古大模型……一众国产大模型先锋势力悉数登场,大会现场“火药味”十足。
“以深度学习为代表的新一代人工智能和以大模型为代表的通用人工智能不断取得技术突破,将成为智能产业的根技术和智能经济的基础设施。工信部以人工智能与实体经济融合为主线,推动我国人工智能产业把握新机遇,应对新挑战,取得新成效。”工业和信息化部副部长徐晓兰在开幕式上表示。
“大模型争夺战”激战正酣
(资料图)
按中国信通院测算,2022年我国人工智能核心产业规模达5080亿元,同比增长18%。未来,AI大模型势必将成为人工智能核心产业发展“新引擎”。
7月7日,记者在WAIC大会现场了解到,阿里云通义大模型新成员“通义万相”正式上线,通义万相基于阿里云“通义”大模型能力打造,用户可以在通义万相中输入提示词,以输出相应图像。除文生图以外,通义万相也推出了包括风格迁移、相似图生成等功能。据阿里云智能集团首席技术官周靖人透露,通义千问已有累计超30万的申请用户,超过100家深度共创企业,而通义听悟发布首月已有36万用户。
与此同时,腾讯云宣布升级MaaS平台,将行业大模型能力应用到金融风控、同传翻译、数智人客服等新场景中;其中,首次公布的金融风控大模型,相比传统风控有10倍效率提升。同时,腾讯公布AI for Science最近成果,将AI大模型技术应用到探星场景,首次通过AI从巡天观测数据中发现2颗快速射电暴。
大模型已然成为互联网巨头企业的必争之地,但行业还存在安全、隐私等诸多问题有待完善。
在本届WAIC期间,中国信通院、上海人工智能实验室、武汉大学、蚂蚁集团等多家单位共同发起《AIGC可信倡议》。该倡议得到数十家单位参与,围绕人工智能可能引发的经济、安全、隐私和数据治理等问题,提出构建AIGC可信发展的全球治理合作框架,采用安全可信的数据资源、技术框架、计算方法和软件平台等全面提升AIGC可信工程化能力,最大限度确保生成式AI安全、透明、可释。
蚂蚁集团认为,人工智能的深度应用,不仅对数据、算法、算力提出了更高要求,也对安全、隐私、伦理提出更多挑战。在确保数据安全和隐私保护、健全人工智能伦理与安全的前提下,才能让 AI 技术真正的释放应用价值。
在中国科学院院士何积丰看来:“不能再将人工智能视为简单的技术工作,而是成为整个组织的变革引擎。可信人工智能要致力于保障数据安全可信、系统行为可追责、算法模型可解释、网络环境可信、法律伦理可信等问题。”
会议期间,阿里巴巴集团联合中国电子技术标准化研究院编写的《生成式人工智能治理与实践白皮书》也对外发布。白皮书分享了针对AIGC不同环节的风险治理,即从模型训练阶段、服务上线阶段、内容生成阶段、内容传播阶段四大阶段入手,提出了一系列具体的治理措施。比如,在内容生成阶段,应该倡导人机合作,加强对生成内容的引导和审核,防止出现违法不良信息、歧视与偏见。在内容传播阶段,对生成的信息嵌入隐藏的标识,通过技术手段进行溯源和回溯传播者,从而在一定程度上解决虚假信息在内容传播方面的问题。
算力芯企业百家争艳
当下,全球大模型竞争日趋激烈,由中国科学技术信息研究所研制的《2022全球人工智能创新指数报告》在WAIC期间正式发布,报告显示,中美两国引领、呈梯次分布的全球人工智能发展总格局保持不变。中国人工智能发展成效显著,人工智能创新指数近三年一直保持全球第二水平,在人才、教育、专利产出等方面均有所进步,但基础资源建设水平仍有待提高。
中国大模型如何与海外大模型竞争?对此,无界AI联合创始人马千里向记者表示,国内大模型赛道出现了“百模大战”的激烈竞争,在试用过这些大模型后,会有很强的冲击感,很好用,因而会对国产大模型产生非常乐观的情绪。
“大模型不单纯是技术竞争,而且还是生态竞争,要看有多少企业、主体愿意基于你的大模型来构建应用,这是大家在做的事情。国产大模型有繁荣的生态,相信在应用层面会有很好的表现。”马千里说。
在大会期间,“大模型生态合作共同体”正式发起,云从科技、腾讯云、阿里云、百度、科大讯飞、清华大学、京东科技、九章云极等国内代表性大模型单位成为首批创始成员单位。该共同体是按照国家新一代人工智能发展规划总体部署,为推动大模型研发、培育自主可控的产业生态而成立,旨在构建政府、产业、学术界和研究机构等各方共同参与的开放合作平台,助力中国人工智能大模型的研发和产业化进程,面向关键技术壁垒联合攻关,提升中国在人工智能领域的国际竞争力。
随着AI大模型的蓬勃兴起,算力则成为这一波产业浪潮的最核心因素。“今年,资本市场对英伟达的热捧,就是算力缺乏的明证。”据清华大学电子工程系主任、长聘教授汪玉介绍,目前全球大算力芯片供应商仅有英伟达和AMD,而英伟达凭借软件生态优势在市场上占据着主导地位。他算了一笔账:假设中国14亿人每个人都用上大模型,所需的总算力可能与目前中国所拥有的算力之间,相差至少上千倍。
而在本届WAIC上,瀚博半导体、天数智芯、燧原科技、登临科技等国内算力芯企也均展现了自家的“看家本领”。
“大模型应用目前处于从0到1的阶段,算力‘普惠’存在挑战,相比训练阶段,大模型的推理部署需要更大的算力。”燧原科技董事长兼CEO赵立东表示,大模型目前处于技术萌芽期,按照GPT-3的训练成本推算,GPT-4的训练成本高达数十亿美元;待技术膨胀期与应用萌芽期,推理AI业务需要增加360亿美元的成本。
昆仑芯现场工作人员向《华夏时报》记者表示,昆仑芯2代AI芯片是国内首款采用显存的通用AI芯片,对于推动国内AI芯片技术研发和商业落地都具有重要价值。相较第一代产品,这款芯片通过芯片架构、指令集等底层核心技术的优化,实现性能、能效、易用性的提升,通用计算核心算力提升了2至3倍。
“瀚博SG100芯片采用7nm先进制程,具备业界领先的渲染性能,同时兼具低延时高吞吐的AI算力和强大的视频处理能力。”据瀚博半导体现场工作人员向记者介绍,随着大模型技术的不断发展和应用,GPU行业也将迎来更多的机遇和挑战。具有并行计算能力的GPU芯片作为大模型计算的“大脑”,将为大模型生成学习提供源源不断的算力支撑。
“算力目前是最稀缺的资源,也处于最容易获利的要津。算力作为大模型成本结构中最大一块,GPU的性能,实际上决定了这个新兴行业的步调。”启明创投合伙人周志峰表示。
“随着算力与模型的进步,更多初创企业正在涌入,它们抢到了时间的红利,但也面临竞争和可能的巨头碾压。”周志峰说。
责任编辑:徐芸茜 主编:公培佳
关键词: