借助于深度学习的突破,2010年以来陆续成立了很多人工智能的公司,比如出门问问(2012),格灵深瞳(2013),商汤(2014),近十年过去从财务表现来看大家基本还都处于亏损的状况。毕竟另一边同期成立的公司是字节跳动(2012,抖音发布于2016),拼多多(2015)年等。这种批量的结果两相参照,唯一能得出的结论是:过去十年人工智能没有商业模式。现在大模型来了,这会带来改变么?如果会,那到底会带来什么样的改变?
大模型的商业模式会和云类似么?
很多人会拿公有云、私有云来类比大模型,这有相似性,但不准确,据此发挥对终局的想象会失之毫厘谬以千里。
(相关资料图)
实际上大模型更适合看成数据价值的放大器,而不同的大模型会因为智能程度的不同而放大倍数不同,相比之下云则更像一种基础数据服务,这种放大的效果不明显,尤其是IaaS和PaaS这两层。
这个差异会导致大模型发展下去和云的走势有很大差异。
如果数据或者服务本来的价值是1,那公有云对这个1没有影响,但影响实现1的成本,这时候云服务对于企业更多的是成本中心。(不绝对,但基本如此)
大模型与此不同。
如果数据或者服务本来的价值是1,大模型的放大器倍数是5或者10,但那最终价值的差异就是5或者10,这时候大模型对于企业更多的是利润中心,会导致生死的差异。
如果说和云不像,那大模型和搜索像么?
也不像。
从信息集散的角度看,大模型和搜索有较高重叠度,所以一突破动作最快的是微软,但我们知道大模型很关键的点在于内容生成和逻辑推理(未来必是决策)。和搜索一样只负责针对特定问题寻找答案就有点买椟还珠了。
和云服务、搜索都不相类似,那大模型到底会和什么比较像?
其实是Windows和安卓比较像,但这是一种新式的云端的操作系统。智能的边界是这个操作系统的边界。
过去的操作系统是干什么的?屏蔽硬件差异性,为应用提供统一的调用接口。一边是应用一边是硬件。
大模型的两边是什么?
一端它屏蔽应用的差异性,一端它也可以屏蔽硬件的差异性。
它具有云服务、搜索的基础特征,但最终会超越他们长成一个新的物种。
过去我们按应用领域做出了一个个的垂直计算平台,比如抖音和美团外卖,但现在大模型的进展提供了新的可能性。这才是通用智能的真实含义,否则通用的智能是干啥的呢?
新式通用计算平台的崛起
在整个IT的发展历史上,我们只有过两类通用计算平台:电脑和手机(平板可以归为电脑类别)。
整个互联网行业在最近10年一直尝试找到下一个通用计算平台,从互联网电视到智能音箱,大家都希望它们能什么都做,但在巨额投资之后它们都失败了,失败之后这些产品也就退回到自己原来的位置,音箱主要用来听歌而不会用来点外卖,电视就看电视和电影,而不会用来购物、打游戏、社交等,退回去后它们也就失去了成为下个通用计算平台的机会。
正当大家差不多放弃的时候,GPT这样的产品出现了。它清楚地告诉我们,这就是下代的通用计算平台,不管什么活都可以通过一段简单的对话获得结果。(这应该是比尔盖茨发言的本质含义)
它同时也会具有一些电脑和手机不具备的特质。
第一,这次它不需要一个专有的设备,让计算更加沉浸式。不要太久电视、音箱、汽车等上面就都可以使用它。
第二,使用成本极低,会打字说话就行。不像Windows和手机,开发应用程序的时候需要专门的程序员。
第三,支持做很多原来做不到的事。过去不管用手机还是电脑,都解决不了内容创造问题,这次就真的可以。
可以这么总结,过去电脑手机能承载的应用,在通用智能的基础上都可以做更好的整合,但反过来则不成立。这对商业是非常有冲击的一个事件,比如现在的智能手机能做卡片相机做的一切事,反过来就不成立,所以卡片相机消失了。这种整合形式过去都有所尝试,Siri、Alexa、小爱同学等可以看成相应的先驱,它们可以做手机上的一切事情,只不过换一种交互方式。它们因为智能程度太差所以都失败了,但可以基于它们想象下智能程度拉升后的效果。
这个通用计算平台以智能的边界为边界,凡是直接与其重叠的都会像数码相机一样被折叠掉。比较确定的是如果智能这么进展下去,基本上纯粹的数字的工具没有单独存在价值了。虽然Adobe在努力,Midjourney很火,但未来像Midjourney、Adobe这样的产品只能是通用大模型的一个小功能,不会独立存在的。
这种归并从技术角度看其实是没有边界的,按技术内置趋势智能通用性的越提升,其它的关联线上线下的服务会变成单纯的数据提供方。按照黑客帝国的设想,这些应用不过是章鱼的种类再多一点。
这种最优终极结构显然不会很快实现,毕竟现实空间要比数字空间复杂的多,比如美团的外卖配送网络是有价值的,因为它有外卖小哥,美团也绝对不愿意把这部分依赖于某个别人的大模型重做。所以这注定是一个漫长的过程,但基本的趋势是确定的——所有的业务都会按照智能的边界重整。
衍生问题就是:在新型通用计算平台崛起的背景下,到底需要多少大模型?
到底需要多少大模型?
即使终局的情况真的是Matrix或者克里人的终极智慧,那也是一个漫长的归并过程。
在这个过程中,大模型会按照智能属性的差异来划分,然后会出现很多个。
OpenAI的大模型再厉害也解决不了便利蜂的供货补货问题,也解决不了外卖小哥的派送问题,也解决不了税务、企业经营管理问题。
每个垂直的领域注定会有一个自己的大模型,而每一个大模型都是一套系统和生态。
这套系统联通终端、数据源、用户,它会和自己同质的产品发生你死我活的竞争,并且进行快速归并(可以回想下过去的团购和打车)。
随着智能的进步,彼此间又会进行进一步的归并。这种归并可能会比互联网还惨烈。因为只要智能上去,理论上它没边界,并且彼此间会因为归并而提升智能的程度和体验。
形象比喻,每个大模型带着自己的生态和用户会变成一个个章鱼,章鱼的脑袋里是大模型,章鱼的触手则是给用户的终端或者数据源。大归并一旦发生,那时候就真的需要UBI了,因为那时候会导致比苹果还大的中心节点的诞生。
未来会不会继续亏损?
看着未来还是不错的。那它能改变做AI的企业的持续亏损么?给AI的发展带来更大的亮色么?
真的不能。唯一确定的是它会加大人工智能行业的亏损,尤其是做行业的。小的像Midjourney这种在一段时间反倒是好说。
越是野心勃勃希望快速搞定一个领域或者一个行业,那亏损越厉害。
为什么?因为和过去的人工智能以及云相比只有投入确定增加,其它的关键商业要素没有变化。
对客户的议价能力有变化么?没有。过去的客户也没有技术能力,但议成了现在这样,那就绝不会因为技术有某些改变而发生变化,除非突破某些阈值,不用不行。
成本端的议价能力有变化么?没有。人、机器、数据该贵还是贵。
竞争格局会有变化么?没有。该来的还是会来,做云的厂商都会做大模型。
成本会增加么?会。除了数据、机器这些更贵了之外,大模型还会导致更频繁的升级。过去做政务云私有部署这些本质上是个B端业务,大模型则实质是个直达C端的产品,明显的和OpenAI的差距必会导致持续的频繁的升级。
既然只有成本会增加,那亏损加大不是合情合理么。
如果说未来10年还是人工智能亏损的十年也许有点夸张,但在3~5年没有商业模式是比较确定的。
人工智能行业作为新的通用计算平台是一定会盈利的,只不过启动周期有点长,并且你越希望它短,它就越长。为什么这样?因为增长的模式变了。
大模型潜在的商业模式
大模型只有一种商业模式,系统型产品。IBM用沃森给这种产品做了Demo,但技术成熟度不够,所以基本失败了。但真做大模型的人还是可以从中得到启示,你要做的就是IBM未完成的事业,把各个行业的沃森干好,真搞好那刻就是赚钱时刻。OpenAI等少数企业会有差别,他们更多面向互联网上的通用信息,会覆盖纯粹数字空间的搜索、社交等。
在这样一种挑战下企业整个运作模式会和互联网有巨大差别。
互联网的模式下单个用户价值可以低,但只要用户数足够大就可以赚钱,所以类似大水漫灌。这时候雷军总结的“专注极致口碑快”七字诀是非常精辟的。
大模型不是,至少推倒了其中的“快”这个兜底特征。大模型需要在一个地方持续打深井,出水了才能赚钱。这时候如果是互联网的打法,那很容易变成四处挖井,挖了很多那个也没水。这时候单纯强调快会有灾难性后果。
也就是说底层逻辑其实已经变了,一个需要急如烈火一个需要厚重如山。
与此同时在同领域其竞争又会非常残酷,一旦同类的产品往前跃迁,跟不上的立刻所有投入归零,干BERT的人也都是很多大牛,那个人水平也都可以,但现在那条线上还有什么价值呢?
大模型不止短期赚不到钱,风险还很高。
总结
大模型短期没有商业模式,想快点赚钱真的不要干这个。中期是可以的,但对干这事的人提出新的要求。张维迎老师经常提到市场和企业家精神,但在过去很多领域有没有企业家精神对结果的影响远没有想的那么大,尤其是规模小的时候,赚钱真的不一定需要企业家精神,但大模型这种领域不行。张老师经常强调的在这里会变成决定性因素,也就是说:初始设定即结果。
关键词: