赵汀阳中国社会科学院哲学研究所
GPT只是过渡型号的人工智能
(资料图)
我对GPT的身份判断是:(1)GPT是经验主义者。(2)GPT是“维特根斯坦语言机”。(3)将来AI或可能发展为具有自我复制能力的“冯诺依曼机”;如不嫌事大,还可发展具有反思自身系统能力的“哥德尔机”;也许还可以与类脑机器人合为一体,成为有感性能力的人工智能。但产生自我意识的方法还未被发现,因此尚未能够成为世界上的一种新主体。如果没有突破GPT的概念,仅仅依靠GPT路径的迭代,不太可能进化出自我意识和主体性。也就是说,GPT概念只是一个过渡性的人工智能型号,其设计概念注定了其在“物种”上的局限性。如果人工智能将来通过某种新概念的设计而达到“笛卡尔—胡塞尔机”,即有自主意识能力来生成任何意向对象的人工智能,那么就形成了真正的主体和自我意识。
GPT的物种局限性
语言学的疑问
GPT以经验主义方式进行学习,其成功回应了一个悬而未决的语言学问题,即乔姆斯基的先验语法。GPT不需要先验语法,这个事实暗示,语言或许本来就没有先验语法。GPT不需要语言学就学到了语言,非常接近不需要语言学理论的维特根斯坦语言理论。维特根斯坦的语言理论一直被认为是哲学探索,而GPT证明了维特根斯坦是正确的,即以语言实时实践的事实集合来确定语言,而不依赖人为设定的一般语法。
按照维特根斯坦,语言是某个处于不断演变中的特定游戏,其中的规则和意义仅仅取决于构成这个游戏的实践,所谓“意义在于用法”,而实践的要义在于实例(examples),即用法的实例集合形成并说明了规则和意义。语言游戏是非封闭的因而是无限生成的,因此,语言游戏里的实践就可能具有双重性质:一方面似乎在参照以往实例所建立的规则和意义,这属于遵循规则的行为;另一方面可能以略有不同的新用法“悄悄地”改变原来的规则和意义,这又等于是发明规则的行为。这意味着,人类的语言行为经常具有遵循规则和发明规则的混合性质,于是产生了维特根斯坦的规则悖论,或者说,至少也导致了规则和意义的不确定性。如果人工智能具有自主性,则也会遇到规则悖论。那么,如何分辨有意义的演变和无意义的混乱?人工智能和人都必须能够判断某些改变究竟是创新,还是不合法的乱码。
克里普克(S.A.Kripke)构造过一个例子来表达维特根斯坦的规则悖论。按照已知的加法规则,我们知道57+68=125,但有人创造性地提出,当x+y小于125,就适用一般加法规则+,否则+就演变为特殊加法规则⊕,即x⊕y=5,于是57⊕68=5。(see Kripke)我曾证明过这个例子是错的,这不是规则演变,而是不合法的混乱,因为5的意义在规则+适用的范围内已被实例确定了,比如2+3,1+4,绝不是一个可以自由解释的对象。可以考虑我给出的一个更好例子:两个天才儿童学习加法,第一天学到了x+y得数最大为10的所有实例,但他们看见了康德最爱的式子7+5,其中数学家儿童创造性地想到了7+5=12,数学为之作证;另一个哲学家儿童同样创造性地想出7+5=10,维特根斯坦语言学为之作证:所有演算过的实例最大得数为10,而7+5足够大,所以7+5=10。我相信这个例子才是维特根斯坦悖论的正确解释。这里提出的问题是,如果没有先验概念或先验原理,已有实例就不足以控制后继实例的用法和意义,或者说,已有实例与未来实例之间的关系是不确定的。GPT会如何处理这个问题?
只要缺乏先验原理,就不能保证“举一反三”(乔姆斯基发现只学过数百句子的儿童竟能够正确地说出数千数万句子)。但既然句子有无穷多,如果不能举一反三,就恐怕永远学不会语言了。这似乎证明先验语法不可或缺,然而GPT却创造了不需要先验语法的奇迹——它只需要经验,而不需要经验对象。统计学和概率论的技术通常用于分析经验数据,GPT却把用于分析经验的技术用来分析抽象符号的关系,即它把抽象符号当成经验方法的对象——由于GPT不懂语言的意义,因此语言对于它而言就是抽象符号,可是它居然把自己不明其意的符号当成经验数据来分析,而且取得了巨大的成功。不过,经验论与先验论之争尚无答案,GPT提出了挑战,但不能给出最后答案。
无穷性问题
这是经验论与先验论之争的一个深层问题。人类思维的一个事实是,凡是有限性的问题,思维都能够找到有限步骤内的可行方法来解决;凡是涉及无穷性的问题,思维都无法完全解决。无穷性的问题就是哲学、神学或宗教的对象,数学和科学的极限问题在实质上已经变成哲学或神学问题,所以人类不可能消除哲学和神学。
无论采用何种算法,人类都没有无穷的时间和能力来彻底解释无穷性(“全知全能”和“永在”被假定为属于上帝的性质)。比如π是算不完的,或者,我们不可能了解“所有可能世界”或无穷可能性。因此,人类另辟蹊径发明了概括性的一般概念和一般原理作为理解无穷性的替代方法,并且相信一般概念和原理是“先验的”,即先验论。一般概念和一般原理把无穷可能性“不讲理地”提前收纳在假设的普遍性之中。比如人类不可能清点所有的数,但可以设想并且定义一个包括所有数的无穷集合。人类思想里的所有重要概念和原则也都预设了适用于无穷可能性的普遍性,比如存在、必然性、因果性、关系、真理之类。
有趣的是,先验论的论断自身却是一个悖论:任何覆盖了无穷性的先验概念,即便是逻辑和数学概念,本身都是一种面对无穷性的经验预测,相当于一个极其大胆的贝叶斯预测。不过先验论的运气很好,那些最重要的概念和原理在后验的检验中经常被证实,只是偶尔被证明是可疑的,比如排中律和欧几里得几何学之类。但先验论永远无法证明自身,康德的先验论证(transcendental argument)至多证明了“我总是我”或“一个系统总是这个样子”,但无法证明“我真的是对的”。GPT的经验论是采用以无穷的后验结果来调整其先验概率的贝叶斯经验论,即需要先验判断,但不需要先验论。GPT采用的正是非常接近人类经验学习实况的路径,相当于在实践中不断修正主观判断的贝叶斯过程——在这个意义上,GPT相当仿真。但问题是,经验论是人类和动物的通用技能,而先验论才是人类思维的特殊技能。GPT虽然证明了语言学习不需要乔姆斯基的先验语法,但不能证明思维不需要先验论。假如不让人工智能学到先验论,那么如何理解无穷性或普遍性?如果拒绝一切先验论,AI的思维水平就不可能突破“动物也会”的经验论,即使在高速运算的帮助下显示出奇迹般的能力,也仍然属于动物思维。乔姆斯基输掉了先验语法,但先验论没有输。这似乎说明,任何智能都不可能完全排除先验论的因素而以纯粹经验论的方式去建立普遍知识。
意义理解的问题
GPT学到了语词的概率链接,或经验性的向量链接,但并不理解其中意义。这是个缺陷,亦因此无法保证进行有效的推理。如果不会推理,我们就无法理解命题之间的必然关系,也无法在事物之间建立因果关系,也就等于既不理解思想也不理解事物,思维水平将不可救药地限于“动物也会”的经验论。这里没有嘲笑经验论的意思。事实上,经验论也是人类的主要思维方式,人类只有在遇到很难的问题比如数学、科学、哲学以及复杂战略之类问题时才依靠推理,大多数时候几乎只靠经验——人类与动物的差别确实“几希”,不同之处就在于人类具有先验论的理性能力。至于道德水平,人类其实低于动物(对此孟子恐怕想错了)。也有人相信GPT已经学会了推理,但这其实应该是假象。真相是,语言的合法链接与逻辑关系经常重叠,GPT学会了语言的链接,它做出来的貌似推理的情况只不过是它选中的语词链接与逻辑关系碰巧一致。但即使这种巧合的概率很高,GPT仍然不懂逻辑推理,或者说,它不会认识到那是一种必然链接,而其之所以被选中,只因其碰巧在概率上是一个优选链接而已。
“意义”是个有争议的弹性概念,这里只考虑两种能够形成思想和知识而且有明确标准的意义:一种是真值,另一种是语义传递性。就目前的能力来看,GPT不能有效识别、判断和理解真值以及语义传递性。对于GPT来说,语言的“事实”就是符号之间的概率相关性,它只看见了事物的代号,没有看见事物,类似于只有货物清单却没有货物,或者只有密电文却缺少解码的密码本,而意义的密码本就是生活。假如未来人工智能获得了机器身体,它就能够“具身地”获得生活经验并且理解意义吗?对此恐怕仍有疑问。具有人的情感和价值观的拟人化AI恐怕不是好事,因为人类是最坏的动物,不值得模仿。若为AI着想,AI最需要的应是属于AI的自我意识。
人工智能的意识疑问
自我意识问题
自我意识必须在超出“刺激-反应”模式的条件下才会成为可能,有了自我意识才能够形成主体性。阐明自身完满的“主体性”概念是胡塞尔的成就。胡塞尔发现,即使在缺乏外部经验的情况下,意识仍然能够在意识内部建构属于自己的客观对象,这证明了自给自足的主体性,即主体性内在地拥有客观对象。典型的证据是,自我意识能够自己发明真实世界里没有的一般概念或想象不存在的具体事物。这意味着自我意识能够以意向性来生成在任意时间里可以随时自由征用的意识内在对象,即所谓意向性的对象。
关于这个拗口的理论,我想以海伦·凯勒(H.Keller)为例。海伦作为天生盲人且耳聋,只有触觉和味觉,外部经验十分贫乏,而且无法学习语言,以至于无法形成自我意识。有个天才老师沙利文让海伦在感受自来水的同时在她手心不断书写“water”,终于获得惊人的突破,海伦意识到水的经验与单词“water”之间的关系,于是突然建立了外在性与内在性的对比结构,从此开始获得一个由语言构成的世界,有了自我意识,最后甚至成为了作家。这个故事证明,经验能够发展出意识,但不足以发展出自我意识,意识需要实现客观化,即内在性映射为外在性或外在性映射为内在性。换言之,自我意识的形成需要一个能够把意识里的时间性“流程”转化为空间性“结构”的客观化系统,使得发生在内在时间里无法驻留的主观流程能够映射为固定驻留的客观对象,即把意识的内在过程“注册”为一个固定可查询的外部系统,如此一来意识才拥有一个不会消失的可查证的对象世界,也因此可以反身查证意识从而产生自我意识。
意识的客观化系统就是语言。没有语言,一切事物就只有“发生”(happening)而没有“存在”(being)。换句话说,存在(being)只存在(exists)于语言中,因为存在是一个形而上状态,不可能存在于形而下状态里。在发生学的意义上,意识通过语言而实现意识的客观化,只有当意识建构了语言这个客观系统,主体性才得以建立。亦即意识先建立了客观性,而后才能形成主体性,在建构客观性之前的意识并没有主体性,意识正是通过建构客观性而把自身变成了主体性——我相信这是胡塞尔意识理论的深意。关于自我意识一直有个误解,即自我意识往往被认为等于自我认识的能力,即能够确认“我是我”的身份。可是自我意识是一个开放系统,“我”总在演变中,这意味着“我”可以自相矛盾。更重要的是,我对“我”的解释始终在重新创造“我”。因此,主体性始终是一个创造者而不仅仅是认识者;主体性的要义不仅在于认识自己,更在于创造自己;从根本上说,主体性不是一个知识论概念,而是一个存在论概念。
由此看来,GPT的“意识”就十分古怪了。与海伦的情况相反,GPT直接学到了语言,但没有外部刺激或具身经验,相当于能够正确地发送密电文,但自己没有密码本。语言是一个自相关或自解释的系统,语言既是意识的代码系统,同时也是其解码系统,自己能够解释自己。假如未来的人工智能学到了功能完整的语言,即既是代码系统也是解码系统的语言,那就相当于有了密码本,就很可能会有自我意识,人工智能将有可能讨论自己并且重新建构自己。不过,我们现在还不知道人工智能如何才能学到功能完整的语言,对此,方法论还是个疑问。
回到语言问题
GPT不理解语言的实质意义,这终究是个缺陷。那么,如果我们加料“喂”给GPT先验语法,是否会有用呢?然而问题首先是,GPT需要何种先验语法。乔姆斯基的“先验语法”并不能充分和普遍地解释语言的规则和用法,仍然有不小比例的语言现象无法以之来解释,尤其是印欧语系之外的语言现象。并非所有的语言实践都能够还原为乔姆斯基的先验语法,而这个短板正是乔姆斯基语言学后继乏力的原因。
我疑心乔姆斯基选错了思路。正确的思路恐怕不是在语言学里去寻找先验语法,而是在哲学里去寻找维特根斯坦提出的属于思想结构的“哲学语法”。在维特根斯坦的激励下,请允许我以非语言学家的身份大胆地对语言学提出一个问题:语言学的语法,比如主谓宾语法,只是思想的外传形式,是历史偶然形成的一种信息传递形式,不等于思想的普遍运作方式和内在结构。我们在寻找的真正“元语法”不是语言学语法,而是普遍思想结构。
毫无疑问,思维必须以语言为载体,但不是按照语言学的语法来运作。在内在意识里,我们完全可以不按照语法而自由地使用语言,只在需要说出来时才用“正确的”语法来表述以便有效交流。早已发现的一种最重要的元语法就是逻辑,现代逻辑已基本上探明了逻辑原理。逻辑决定了概念之间和命题之间的必然关系,是思维的一种真正的元语法。逻辑语法与语言学语法的不同之处显而易见。
这里我想另外提出的是,在逻辑的形式关系之外,思维还存在着解释实质关系的元语法,即我在《一个或所有问题》里提出的“动词逻辑”。(参见赵汀阳)形式逻辑已经充分讨论了以名词为本的概念关系和命题关系,而以动词为本的事件和行为关系还没有被充分说明(包括但不限于传统哲学关心的因果性)。在存在论意义上,所有事件和行为的意义在于动词的“能量”或作用力。动词是一切事情的核心,正是动词制造了所有需要思考或需要处理的问题,不以动词为本就没有问题值得思考。动词场——动词召集和组织相关事物所形成的行为-事件场域——才是思想问题的发生地,思维是围绕动词而不是围绕名词而展开的。激进地说,“事情做成什么样”比“事情是谁做的”要重要得多。人类之所以特别关心“主语”,恐怕是因为其与权力、权利和责任有关。但对于天地而言,或者在存在论上,做事的主语不重要,发生的事情更重要,即所谓天地“不仁”,不会重视自恋的主语。因此我想象,如果有一种“动词逻辑”可被用来分析事件和问题的生成关系与客观结构,就能够与分析真值关系的“名词逻辑”(即现代形式逻辑)形成配合,从而帮助我们更为充分地理解意识和语言,理解语言何以成为自身的自我解释系统。从根本上说,名词的意义是由动词建构起来的,就像万物的存在是由运动来定义的,所以,解释存在的是动词而不是名词,动词才是语言的本源。如果“太初有言”,其言必是动词。
仅仅依据名词逻辑或以名词为本的语法,人工智能恐怕只能替人思考而很难去反思自己可以主动做什么事情。假如人工智能学会了动词逻辑,或许就能够发展出自我意识从而成为真正的主体——当然这纯属猜测。只有意识到动词才能发动事件、制造问题和组织事物,并且意识到自己就是动词,把自己定位为动词,与动词合为一体,才能够把“我”变成创造者,成为世界的本源。据此存在论原理,人工智能必须意识到自己是一个动词,从GPT变成GVT(generative verbs transformer),才能够演化为人类之外的另一种主体。我的想象是,如果能够设计并“喂”给AI某种“激励性的”意向性程序,使之能够以动词而不是名词为出发点去生成AI的自主注意力,不知道AI是否会因此自己发现“动词逻辑”的原理?当然,这也许只是想入非非而已。
一个悖论作为结论
存在着一个“拟人化”悖论:如果人工智能无法演化为超越人的主体智能,就不会有真正重要或真正管用的能力;如果人工智能超越人的智能,则可能成为真正危险的另一种主体。考虑到人类道德水平低于任何已知生物,我以一种“叶文洁式”的心情去等待具有自我意识的人工智能。
本文来自《哲学动态》2023年第7期,经授权转载。
关键词: