作者 | Li Yuan
(相关资料图)
编辑 | 郑玄
王小川的百川智能,又发了新的大模型。
6 月和 7 月先后发布 70 亿参数的 baichuan-7B 和 130 亿参数的 baichuan-13B 后,百川智能在 8 月 8 日发布了 530 亿参数的大模型 baichuan-53B。这家成立不到半年的创业公司,过去三个月里发布了三个大模型。
「百川智能开源模型中文的效果在国内开源模型是领先的,英文的效果也很好,只和 LLaMA-2 差一点。中英文的效果都能做的比较好,来自于我们对于数据这块配比设计,包括数据学习顺序,这些事情上我们有自己的理解和技术在的。」百川智能的联合创始人,也是大语言模型的技术负责人陈炜鹏表示。
而新发布的 baichuan-53B,王小川描述其最大的优势有两点:写作能力好,文科方面博学。而能做到这一点,其中重要原因之一是来自模型在底层应用了搜索的能力,「我们最清楚中国互联网哪里有最好的数据」。
百川智能官网可以申请内测 53B 大模型
商业上,与前两代大模型不同,baichuan-53B 没有开源。王小川说这是因为参数量大(530 亿)使用成本较高,所以采取了闭源的方式。但与之前一样,百川依然把大模型产品的服务对象定在 B 端,称目前已有超过 150 家企业申请试用。不过他也在会上透露新的计划,称年底会发布一个 ToC 的超级应用。
8 月 8 日 发布 53B 后的媒体沟通会上,王小川和联合创始人陈炜鹏,接受了极客公园等多家媒体的群访。不仅回答了新大模型产品和商业化层面的问题,还分享了过去几个月,他们看到的百川智能和大模型赛道的发展和变化。
以下是极客公园整理的对话内容。
01
新的大模型,
为什么不开源了
问:新大模型的特点是什么?
答:53B 的模型,跟之前的模型相比的话,参数规模大了很多。在我们自己的评价里,写作能力是在最好的位置里面。另外我们评测,知识上也比较博学。
知识可以分为两种,一种是叫做八卦性的知识,比如「刘德华的老婆谁啊?」,另一种是事实性的知识,比如「原子核多大?」。大家评价我们的模型文科很好,那么这次而言的话文科就更好了。我们的模型现在在文科领域中走到比较前面的位置。
比如像孩子的名字怎么取,怎么解读,我们的模型能很好理解语言泛化背后的意义,把各种概念连接,代表了文科里面的抽象、类比还有关联,我们就做得不错。
问:搜索增强是此次发布的 53B 大模型的一个亮点。能具体讲讲百川智能的搜索技术与大模型的结合吗?
答:百川智能在搜索增强系统中融合了多个模块,包括指令意图理解、智能搜索和结果增强等关键组件,通过搜索结合大语言模型技术来优化模型结果生成的可靠性。
OpenAI 跟微软是两个独立的实体,对于搜索这块,它是把搜索当做一个黑盒去使用的这种方式。我们的搜索跟模型的结合是从非常底层的地方就开始融合了。
我们 53B 的模型,用户当有 query 进来之后,它不只是调模型去回答,如果发现这些模型里面没有内在信息的时候,它最后就会去调用搜索。具体调用哪家的搜索,我们目前先不公开。
问:搜索是一个长期的技术思路,还是现在预训练大模型方面没法经常做更新,找一个来补充现在当下能力问题的办法?
答:所有的大模型,只要搭建在 Transformer 在这个架构上,就是有幻觉的,就是有非时效性的问题。
我认为,大模型未来变成一个好的服务,需要有多个技术栈在一块,而不是从一个模型直接变成一个服务。你刚刚提的问题背后,含义是模型够好,只是需要一些东西来做补丁。
我认为可以换个角度,最后的服务,大模型只是其中一种技术。模型它天然就有它的瓶颈,它可能会有提升,但是我认为它本质的地方没有变。
模型和搜索会以新的形式融合在一块,而不是模型替代搜索,类似的问题就是一个坑。
问:新的 53B 的大模型是一个通用大模型,在垂直领域的表现如何?
答:我们发布的是通用的版本,但是测起来的话,医疗方面会比其他家好一些。
问:为什么没有继续开源?
答:模型变大之后没有走开源的这样一种方式,因为大家部署起来成本也会非常的高,就是使用闭源让大家网上调用的方式。在我们的官网,大家已经可以申请内测试用了。在我们的计划里,我们后续 53B 也不会开源。
问:闭源有代表商业模式的变化吗?
答:开源和闭源不是矛盾的。不管是 7B 还是 13B,还是 53B,都是为 ToB 的行业服务做准备的,往下的话,下个月我们就能开放 API,甚至后面会开始开放一些其他的组件,帮助大家更好地去做后面的对齐,甚至做强化,也有向量数据库等等。把这些 TOB 的一些独立的服务优先给做起来。
问:闭源的好处是什么?
答:就对于企业和客户来说,闭源的话对于我们来讲,首先是能够做更大的模型,而更大的模型推理部署的要求很高,开源给企业自己部署使用,企业部署难度也很大。我们认为闭源其实可以提供更简单的接口,做这样的一个调用。它的这个指令的精准度方面会更好,能解决更复杂的问题会多一些。
问:闭源大模型的成本很高,怎么保证竞争力?
答:我认为这中间有两件事情,一个是模型效果足够好,拼的是你的这样一个模型的能力。第二个,你得把你的这个推理的成本给降下来,这是世界性的难题。我觉得这里面还有很多功课要去做。
问:闭源大模型的算力如何解决?
答:通过云厂商实现。包括腾讯云、阿里云都有提供算力。
问:OpenAI 也经历过从开源(注:GPT-1 和 GPT-2)到闭源(注:GPT-3 和 GPT-4),百川闭源和开源的标准是什么?
答:我觉得和大小相关,参数大的部署成本已经开始增加,这种情况下我们就选择走闭源的这样一个服务。但这个开闭的话我觉得不是同一个意思。原来「开」说的是把你的这个论文也开放了,代码也开放了让别人去复刻你,我们这个开源的目的是能够提供给大家更好的去用的,本身它就不是同一个词。
OpenAI 之前是开代码的,它的 GPT-1 和 GPT-2 是有论文、有代码看的。所以我们其实从来没说要开个论文,开个代码,我们这边只是开放模型的能力,让 B 端都能够用到,不管是开源还闭源都能用到你的模型能力。这是和 OpenAI 不一样的模式。
问:有人认为今天在国内做开源是有一些营销的目的,你怎么看?
答:我觉得一定程度上是对的,我认为今天说开源应该有几层意义。
第一层的话我觉得就是一个营销行为。要告诉我行不行,有用没用,所以我觉得对于一个后发者开源是挺好的一个选择。这种开源的道路在 OpenAI、LLaMA 面前,也叫后发制人,开源之后是更容易使朋友多多,能够让大家迅速去评测了解,所以营销行为肯定是有的。
第二层的话,开源有时是为了商业化做储备的,本身你有了各种用途之后,有了生态之后,那么其他有更高要求,比如对可靠性的要求,可能需要更好的参数的模型,更大的窗口的时候,我手上有能够能接得上的这种东西,就有了从开源到收费。我认为这件事情在国外是有探索的,在中国虽然之前不成功,但依然是可以借鉴这样的一个思路。
02
一家公司
不可能把赛道做完
问:百川智能在模型训练方面接下来是如何计划的?
答:我觉得现在是个爬坡的状态。对于模型来说,我们认为有三点很重要:一个是大模型本身的能力,尤其指的是预训练的能力,一个是搜索的能力,一个是强化的能力,这三个事情就是共同推动大模型的进步。
从实操角度讲,搜索其实效果是最明显的。强化这件事,是比较有难度的。预训练其实是在提高模型的综合能力。
我们最早讲 Q3 就会发布万亿参数,做到中国最好的对标 GPT 的模型,这意味着对于预训练模型的追求是没法停下来的,未来还会继续去做更大的模型。
但是除此之外,意味着我们对于搜索和强化的技术追求,也会有自己的高度。让我们既能做万亿参数,后面还有自己的差异化。
问:百川智能在 B 端和 C 的战略是什么?
答:一家公司不可能把所有赛道都做完。在 B 端,我们选择先做开源模型,B 端企业和中间层的公司,比如做模型二次开发的公司,可以基于这个模型去适用场景。我们的逻辑是我们不去一步做到底,保持足够开放。
C 端的话,今年内部团队开始部署 C 端的超级应用。我们在思考如何追上 GPT-4,思考大模型到底能给 C 端带来哪些应用,同时我们了解到网信办发牌照放行的工作今年一定会被放开。
我们比 OpenAI 在两头都走的更远一点,OpenAI 目前 B 端就是 API 调用,C 端就是 ChatGPT,我们在 B 端更开放,C 端对超级应用有更多的产品定义。
问:在 C 端的超级应用方面,有什么可以透露的吗?
答:在这方面我们有很多自己的思考。
在这种创业公司里面,我们从搜狗过来,在几个主流创业公司里面是唯一一家做过超级应用的公司。我们做过两个,一个是搜索,一个是输入法,而且这两个还都是把语言 AI 用到极致。这些语言 AI 和交互式探索里面的各种经验教训也都能够在百川里面能够继续去发扬光大。
问:百川智能为什么能够做到跑的这么快?
答:大模型这个事情是相对综合的事情,涉及到几个环节。
第一个环节你的数据从哪儿来,大家都知道互联网的网页可能是万亿量级的,但是实际是用到模型去训练大概也就是百亿的量级。我们之前这个团队背景是做了很多年的搜索,所以我们对整个中国互联网里面哪里有好的数据,我们这个团队肯定是最清楚的,怎么把这些数据收集回来,并且把它的质量做好,识别出来,这些我们其实以前有一个很强的积累和方法论。大家现在关注到现在大量的语言模型除了中文的数据也好,英文的数据,我们以前在翻译这块也有很强的积累,怎么样能整合中英文的数据,这块我们以前做过很多相关工作,有一些积累。
第二个问题,对于这个模型本身的训练,我们之前在 7B 也发布过,我们整个并行策略调校的水平非常好,在国内也是比较领先的水平。
刚才提到整个模型的训练其实是一个相对复杂的系统,涉及到数据、训练框架、模型本身,需要对整个复杂系统系统有很强的经验,这些我们之前都会有一些积累。
我们做这个事情本身有很强的号召力,除了以前来自搜狗的人才储备以外,也有很多来自头部企业厉害的同学加入我们团队,这个可能是构成了我们为什么能跑得很快的最主要的原因。
问:百川智能打算开始进行商业化吗?
答:我们并没有将我们发的头两款大模型商业化。像智谱、MiniMax 这样的公司,更早参与了大模型创业,在我们之前已经干了几个月甚至一年的时间,有他们市场的影响力。我们作为后发者进入到市场,所以开源对我们来讲的话,我们首先是能够先给中国的商业生态做一些贡献,填补一个空白,也是展现我们的一个技术实力。我们相信后面的技术会发展非常快,虽然我们开源了,只要持续不断有后面的这种技术迭代,就会有自己的商业模式出现。
7 月 28 日,洪涛入职百川智能负责商业化方向,我们商业化的工作也会开始开展起来。一方面会借助现在的开源引擎,但也有一些更大参数的模型。除此之外,背后的一套组件也在研发当中,能够统一的去做提供部署。
今天在这个体量的公司在今天这个时代里面,我们认为多条线里面都有很多机会,我们对自己团队过往的能力也好,经验也好,是有信心的,能同时打好几场仗:首先模型方面,我们到现在发了三款模型,感觉立住了。其次团队也是在不断的这样的一个扩充过程当中。到了我们成立的第 100 天 我们有 100 个人。到今天是 113 个人,基本就一天招一个人的速度往下走,速度可能还会再抬头。
在这个中间我会很重视,你这个组织是否有足够多优秀的人才,有良好的这种组织能力和分工。有这个能力,哪场仗都能打。
问:百川智能现在的人员构成是什么样的?
答:技术人员大概占总人数 70% 到 80% 吧,来自搜狗的旧部大概占到 30%-40%。
问:百川智能更喜欢什么样的大模型人才?
答:比较倾向于两种类型的,一种是本身对于解决复杂问题,有很强的问题拆解能力。然后是对于算法或对技术有很好的技术审美,也就是他本身要有很强的判断力,这确实是一个非常重要的点。尤其在算法这个领域,我们每天都会有很多新的 idea 出来,那对于整个算法的思考是有体系的,有没有一个很好的技术审美,其实是一个非常重要的事情。
第二种,我们会比较倾向于说这个同学他本身的技术能力要很扎实,包括他的 coding 的能力,或者是写算法的能力,他本身的技术基本功是非常扎实的,对于我们要做的这个事情,他听到后两眼放光,觉得是非常向往、非常渴望这种状态。那我觉得这样的人对我们来说,是能够非常好的融入我们的团队,一看就知道和我们是一路人。
问:大厂出身的人,为什么会选择百川智能这样的创业公司?
答:我觉得大厂小厂的人,他们都是技术人员。他们选择百川智能有各种原因,首先第一个是有技术理想的,留在大厂里可能没有机会实现,比如做的东西没被选中。其中也有一些是因为组织架构的原因,给他的岗位和工作能力不能匹配。
大厂其实是有人才的,但是甄别人才的能力因为各种各样的原因总是会有欠缺,甚至有动作的走形。所以一些人才就会觉得创业公司里可能会有更好发挥自己能力的机会。
而之前创业公司的问题,是有些工作是创业公司做不来的,你的规模不够,空间不够大。但这件事(大模型),有足够的吸引力,空间也足够大,那么这个工作机会对大厂人才也就有足够的吸引力。
问:今天我们的成本中,算力要占到多大的比例?
答:训练阶段算力成本是挺贵的,不同厂商情况可能不一样,行业里 40% 以上可能都得给算力了。我大概猜一下,百川可能到在 40% 到 70% 之间,最后算进来,是包括了 GPU 网络联通。
问:百川现在自己做模型也打算做应用,既做运动员也做裁判,会不会造成一些机会的丧失?
答:现在我觉得不严重。我觉得现在还算不上是一个裁判员的身份,我觉得这个例子还没法完整复制过来。今天我觉得还没到那样一个状态,就是 ToB 的话你是足够开放去做,然后 C 端你就选一两款自己进行。实际上英伟达也是各层都有,你看它既在里面去做底层的 GPU,也会做一体的云服务。所以我认为在各层里你分开去做会有自己的竞争力,今天(大模型)商业上讲还不是这个裁判员的问题。
问:百川智能的融资状况如何?
答:融资非常顺利,但现在还不能公布情况。
03
关于大模型行业
问:如何看待现在中国的大模型行业整体的状态?
答:现在中国的大模型行业,从现象上看,确实大家都在下场在做,每个有技术理想的企业都一定要自己试一下这件事情。所以其实这样就卡的资源不够用。
今天不管是十家、百家、千家,最后一定要看两件事,第一个是否能拿出足够好的 AGI 来,像 GPT3.5、GPT4 去比肩,这件事情大家有相应的距离,我们现在也没做到,往下看今年内有哪些企业能达到 3.5 甚至逼近 4 的能力,现在没有看到之前你很难去判断。二,是否能做出超级应用来,大模型很烧钱,是否能够存在一个超级应用。这两个事情目前还都还看不清。
阶段性能看清的地方就是开源这件事情,大家能够自己做评测,在这个领域里面的话,中国这方面是可能优先达到一个国际水准的。第二的话就是我们的这种超级应用有可能会比美国快,中国做这种科学问题会差一点,但做应用问题确实是我们的强项。
我到美国去之后发现他们这边做技术确实得不错,但是做应用能力实在不怎么样。很多工程师并没有应用的经验。我去之前,我当时提到的是在理想上比 OpenAI 慢半步,在落地上快半步。我回来之后改了,「理想上慢一步,落地上快三步」。
他们满眼放光跟我讲,他们在设计怎么把 1000 万颗 GPU 联在一块做模型架构。我们知道今天训 GPT-4 大概是 2 万颗 GPU,GPT-5 可能是 5 万颗。他们考虑设计 1000 万颗 GPU 做连接结构,你跟他们拼理想这个是没完没了的。你说解决幻觉问题,他们说模型大 10 倍幻觉就下来一些,他们走的不是往落地方向,OpenAI 就是这样的情况。你跟着它走是不够的,因此理想上确实拼不过,但是落地上我们跑得快。
问:创业型公司在这场这个里面该怎么玩?钱在这里面有多重要?
答:今天我们看到一个情况,大家一起步公司就几亿美金,今天就 5 亿多美金。第二轮可能就是 10 亿美金的状态,其他几家大公司都是这种状态,所以这种竞争不是小清新,三两个优秀的小同学坐在一块,给你 3 年、5 年的时间。你要迅速进入到大的战役里面。一方面创业公司拿到很多钱去互相卷,还有大厂之间的竞争,大厂有更多的钱,更多的人,更多的算力进来,这种情况下迅速形成一个战斗力。
中国跟美国不太一样,美国通用大模型闭源模型其实头部几家已经定下来了,OpenAI,Google 都有一张门票,在美国做开源大模型做通用已经没有悬念,投资也不会再去投。但是在中国不是,中国谁做最好的大模型现在并没有结论,有一个大家争取的机会,而且还不一定落在大厂里面。
决定胜负的话,我觉得钱是非常重要的一件事情,但最终决定能力的还是人才团队,尤其包括人的能力和组织能力。大厂钱多,人多,算力多,但组织效率不一定够好。创业公司组织效率可能好,也可能不好。
像我们,管理过 3000 人的公司,现在变成 100、300 人,非常容易把效率提上去。因此组织能力对我们来讲不是挑战性的事情,同时也有大厂相对完整的经验,如果在钱上能保证的话,我们的能力还是很强的。
问:现在大模型有同质化的趋势,我们怎么看待这个问题,有没有一些规避的措施?过去说有五张船票,现在还有几张?
答:我觉得现在阶段性的会有同质化的问题,目前还是在一个叫做分型复刻的阶段。在这种情况下,你对标的东西就只有一个,就是 OpenAI,那么不可避免的行业会出现同质化。这个阶段过了之后,就开始看你的技术里是否有独有的能力。像我们对搜索的理解,对强化的理解,我们的模型会逐步走出差异化来,这需要一个时间,那更多地方就是在应用里面,那大家就千差万别了。
所以同质化这个事情,今天还是蛮正常的一个现象。才刚开始,那你肯定是向别人先学习,然后才能发挥自己的东西。人生就叫以正和以奇胜,对吧?
船票的话现在依然还是有 5 张,如果只有 2 张我们也会在这个船上。这 5 张并不扣除大公司,创业者是没有 5 张船票的。
问:现在很多应用开发者都是同时使用多个大模型,这个会是长期趋势还是短期现象?
答:现在我倒是觉得这种现象是中国特有的比较好的、比较开放的状态,互相之间没有原来的「二选一」这样互相排挤,这是一个好的状态。
第二是大家现在对于模型的理解都还不是很多。这种情况下,多试几家的也有;非要自己下场试一下的也有。现在行业还没有到一个这个大家形成基础共识的状态,而到未来的时候我觉得慢慢会分层,就各自专注的自己的事情,现在还是一个叫做「群魔乱舞」的状态当中。
问:怎么看大模型在 B 端市场的前景?
答:我认为 B 端天花板不高,但确定性是挺清楚的,就是确实很多企业都有这样的一个需求,只是它的对接门槛很高,每个企业有自己的私有数据跟你怎么连。所以如果你没一个好的合作模式的话,最后可能把双方都拖垮掉。一个是信任的问题,一个是 ToB 到后面的一个研发成本会非常高。
我们是需要有中间层的企业来做服务的,既有 B 端的真实场景,也有中间层做服务的,也有后面是做模型的,应该是三层这样一个结构。因为 B 端公司很多技术能力不强,所以中间有各种集成商,有后面的大模型服务商。在银行行业,在保险行业,都有大量中间的公司在给提供服务,这不是个技术问题,而是要能够去衔接行业客户的需求和客户的销售。
问:如何看待开源和闭源?
答:今天大家讨论开源闭源的话,它不像是安卓或者 iOS 一样的,是二选一的,手机里要么装安卓,要么装 iOS。而今天的话,这个从 ToB 的角度里面是开源、闭源都需要,不是这样的竞争关系。
我们认为,未来 80% 企业会用开源的模型,在自己的数据里去优化。因为你闭源的话,这个东西没法对产品做特别好的适配。而且开源模型可以做的非常的小巧,因为在很多产品里面并不需要大模型去做数学题。实操里面的话,其实开源模型在很多地方是非常好用的。
我们刚刚提到本身在做 7B、 13B 的时候,收到过一些企业的反馈,他们认为它们已经比闭源的 GPT 更好用了。可以看出,不同产品需要不同的储备,但我们觉得不是一个竞争关系,而是在不同场景有互补的关系。
我们更多地关注是 B 端怎么做,C 端怎么做的问题,而不是把问题停留在开源和闭源上。我甚至认为这个问题也不是现在大家想不明白,难以形成共识的地方了,这个问题的共识已经在形成当中了。
*头图来源:百川智能
本文为极客公园原创文章,转载请联系极客君微信 geekparkGO
关键词: