>首页> IT >

基辛格谈人工智能:AI如何改变了人类社会?

时间:2023-06-18 15:13:08       来源:腾讯网

作者:亨利•基辛格、埃里克•施密特、丹尼尔•胡滕洛赫尔

在一个机器越来越多地执行过去只有人类才能胜任的任务的时代, 我们作为人类的身份又如何体现?正如前面章节所探讨的,人工智能将扩展我们对现实的了解。它将改变我们沟通、联系和共享信息的方式,也将改变我们发展的理论和部署的战略。当我们不再亲自探索和塑造现实,而是将人工智能作为我们感知和思想的辅助工具时,我们将如何看待自己以及我们在世界上的角色?我们将如何调和人工智能与人类自主和自尊等概念?

在先前的时代,人类始终将自己置于叙事的中心。尽管大多数社会都承认人类并不完美,但它们同样视人类的能力和经验为世间众生可以实现的最高成就。这些社会颂扬那些体现人类精神巅峰的个人,这实际折射出的正是我们对自己的期许。这些英雄在不同的社会、不同的时代有着不同的形象,比如领导者、探险家、发明家、 殉道者,但他们都体现了人类成就的各个方面,也因此体现了人的独特性。在现代,我们对英雄的崇拜集中在那些探索和塑造我们所处现实的理性先驱身上,比如宇航员、发明家、企业家、政治领袖,莫不如是。


(资料图)

如今,我们正在迈入一个新时代,作为人类的创造物,人工智能正日益被赋予以前只能由人类心智完成或尝试的任务。随着人工智能不断执行这些任务,产生接近乃至超越人类智能所能完成的结果,它挑战了人何以为人的决定性属性。此外,人工智能能够学习、演化并变得“更好”(根据它被赋予的目标函数)。这种动态学习能力使人工智能能够实现复杂的结果,而这些结果直到目前还都是人类和人类组织的专利。

随着人工智能的崛起,对人类角色、人类愿望和人类成就的定义都将发生变化。在这个时代,人类的哪些品质值得颂扬?其指导原则是什么?人们有两种认识世界的传统方式:信仰和理性;如今人工智能又添上了第三种。这种转变将考验(在某些情况下还将改变)我们对这个世界以及我们人类在其中所处位置的核心假设。理性不仅革新了科学,也改变了我们的社会生活、艺术和信仰。在其浸染之下,封建等级制度瓦解了,而民主,即理性的人应该自治的理念崛起了。现在,人工智能将再次检验我们的自我认知所依据的原则到底为何。

在一个人工智能可以评估我们生活中的诸般事物,预测接下来会发生什么,并决定该做什么的时代,即一个现实可以被预测、近似和模拟的时代,人类理性的角色将会改变。我们对个人和社会的目标感也会随之改变。在某些领域, 人工智能可能会增强人类的理性。在其他领域,人工智能则可能会让人类产生一种置身事外的感觉。对根据一种无法解释的(实际上也未被言说的)计算而选择了不同的车道或路线的司机来说,对根据人工智能协助的审查而被延长或被拒绝信贷的借款人来说,对根据类似程序被决定是否获得面试机会的求职者来说,对在认真开始研究工作之前就被人工智能模型告知最可能答案的学者来说,这种体验可能会是高效的,但并不总是令人满意的。对习惯了独断专行、以自我为中心,并垄断了复杂智力活动的人类而言,人工智能将挑战其自我认知。

到目前为止,我们所设想的种种进步,说明人工智能正在以多种途径改变我们与世界的互动方式,从而改变我们看待自己和自己在世界中所扮演角色的方式。人工智能会进行预测,比如一个人是否处于乳腺癌早期;它会做出决定,比如在国际象棋对弈中该走哪步棋;它能突显和过滤信息,比如该看什么电影或持有什么投资;它 还能生成类人风格的文本, 从句子到段落,乃至整个文档。随着这种能力变得日趋复杂,它们将迅速成为大多数人眼中具有创造性或专业性的存在。人工智能能够做出某些预测或决定、生成某些材料的事实本身,并不表明它具有类似于人类的复杂性。但在许多情况下,这些结果可以与以前只有人类才能给出的结果相媲美,甚至有过之而无不及。

想想 GPT-3 之类的生成模型能够创建的文本吧。几乎任何受过初等教育的人都能合理地预测一个句子怎样才能补充完整。但是编写文档和代码(GPT-3 可以做到)需要复杂的技能,人类需要花费数年时间接受高等教育来培养这些技能。因此,我们曾经的信念,即像补充完整句子这样的任务与写作是不同的,而且比写作更简单,正遭遇生成模型的挑战。随着生成模型的不断改进,人工智能将引领我们对人类能力的独特性和相对价值产生新的认识。这将把我们置于何处?

借助与人类互补的现实感知,人工智能可能会成为对人类有用的同伴。在科学发现、创造性工作、软件开发和其他类似的领域中,有一个持不同视角的对话者会大有裨益。但这种合作的实现要求人类适应这样一个世界:在这个世界中,我们的理性并不是认识或驾驭现实的唯一方式,或许也不是最具广泛性的方式。这预示着,人类如今所经历的这场转变的意义比自活字印刷机问世近 6 个世纪以来所发生的任何转变都更加重大。

各个社会都有两个选择:一个是各自为战;另一个则是带着合作意向开始对话,举全人类的进步之力来界定人工智能的角色,同时明晰我们自己的角色。前一种路径是弃权式的默认,而后一种则需要领导人和哲学家、科学家和人文主义者,以及其他各种团体的清醒参与。

最终,个人和社会将不得不决定,生活的哪些方面应该留给人类智能,哪些方面则应交由人工智能或人类与人工智能的合作。人类与人工智能的合作并不是一种对等关系。归根结底,人工智能既由人类构建,也由人类指挥。但随着我们逐渐习惯和依赖人工智能,对其加以限制可能会导致更高昂的成本、更困难的心理挑战,甚至更复杂的技术。我们的使命将是了解人工智能给人类经验带来的变化、它对人类身份的挑战,以及这些发展变化的哪些方面需要由其他的人类义务来加以调节或制衡。人类未来将如何呈现,这取决于人类在人工智能时代的角色界定。

改变人类经验

对一些人来说,人工智能的体验将会赋予他们力量感。在大多数社会中,了解人工智能的人数虽少,但也在不断增长。对这些对人工智能进行构建、培训、指派和监管的个人,以及拥有技术顾问的决策者和商业领袖来说,这种伙伴关系应该是让他们颇为心满意足的,尽管有时也会令人吃惊。事实上,在许多领域,借助专业化的技术超越传统理性的体验,如人工智能在医学、生物、化学和物理方面取得的突破,往往会令人颇有成就感。

那些缺乏相应技术知识的人,或者主要以消费者身份参与人工智能托管过程的人,也会经常发现这些过程令人满意,比如一个大忙人可以在乘坐自动驾驶汽车旅行时阅读或查看电子邮件。将人工智能嵌入消费产品确实可以广泛传播该技术带来的福祉。然而,人工智能也将运行并非出于任何特定个人用户的利益而设计的网络和系统,而且超出任何个人用户的控制范围。在这些情况下,遭遇人工智能可能会让人感到不安或泄气,比如由人工智能推荐某个人而非其他人获得理想的升职或调任时,或人工智能鼓动或怂恿对主流观点持挑战甚至蔑视态度时。

对管理者来说,人工智能的部署可以带来很多优势。人工智能的决策在准确性方面比起人类可以说是有过之而无不及,而且在适当的保障措施下,实际上也可能更少有偏见。同样,人工智能在分配资源、预测结果和推荐解决方案方面可能更为行之有效。事实上,随着生成式人工智能变得愈加普及,它产生全新文本、图像、视频和代码的能力甚至可能使它在通常被认为需要创造性的角色(如起草文件和制作广告)中表现得和人类同行一样出色。对提供新产品的企业家、掌握新信息的管理者,以及创造日益强大人工智能的开发者来说,这些技术的进步可能会增强他们的主导感和选择感。

优化资源配置和提高决策准确性对社会是有益的,但对个人来说,其实所谓意义,更多地来自其自主性,以及基于一系列行动和原则解释结果的能力。解释提供了意义并呈现其目的,对道德原则的公共认可和明确应用则提供了正当性。但算法不会提供基于人类经验的理由,来向公众解释其结论。有些人,尤其是那些了解人工智能的人,可能会觉得这个世界还是可以理解的;但更多的人可能并不理解人工智能的所作所为究竟为何,这将削弱他们的自主性和赋予世界意义的能力。

随着人工智能改变了工作的性质,它可能会危及许多人的身份认同感、成就感和财务安全。受这种变化和潜在错位影响最大的可能是蓝领和中层管理人员,这些人的工作需要专门的培训,并涉及审查或解释数据,或是起草标准格式文件之类的专业工作。虽然这些改变不仅可以带来更高的效率,而且会创造新的岗位,但对在这个过程中经历了哪怕短暂错位与混乱的失意者而言,他们就算知道这只是过渡期的阵痛,而这些改变终将提升整个社会的生活质量和经济生产力,他们恐怕也不会感到有所慰藉。有些人可能会发现自己可以从单调沉闷的工作中解脱出来,转而专注于更能激发成就感的工作;而另一些人则可能会发现他们的技能不再是优势,甚至不再必要。

尽管这些挑战令人生畏,但其并非前所未有。以往的技术革命也曾造成工作的替代和改变。机械纺织机等发明取代了纺织工人,并激发了卢德派(Luddites)的233兴起。卢德派是一种政治运动的参与者,他们试图禁止新技术,以保留旧有生活方式,如果无法达成这一点,就破坏新技术。农业的工业化引发了向城市的大规模人口迁移。全球化改变了制造业和供应链,许多社会在最终吸收这些变化以实现自身的整体改善前,都引发了新的变数乃至动荡。无论人工智能的长期影响究竟如何,在短期内,这项技术都将彻底改变某些经济领域、职业和身份。社会需要为此做好准备,不仅要为职位被取代者提供替代的收入来源,还要为他们提供新的成就感来源。

决策

在现代,如果我们遭遇一个问题,标准反应是寻求解决方案,有时为确定方案还需找出这个问题的肇始者。这种观念赋予了人类责任和原动力,这两者都有助于我们建立身份意识。现在,一个新的参与者正在加入这一均衡,并可能削弱我们在某个特定情境下作为根本思考者和行动者的自我观感。有时,无论是创造和控制人工智能,还是仅仅使用它,我们所有人都会在不经意间与人工智能互动,或者在自己并未提出请求的情况下获得人工智能提供的答案或结果。有时,无形的人工智能可能给世界带来魔法般的默契感,就像一个商店对我们的到来和心血来潮的购物冲动仿佛都能未卜先知一样。而在其他时候,它则可能产生一种卡夫卡式的荒诞与噩梦感,比如当机构做出足以改变个人命运的决定——提供就业机会、发放车贷和房贷,或由安保公司或执法部门做出的决定——却没有一个人可以解释这决定是如何做出的时候。

这些合理的解释与不透明的决策之间、个人与庞大的体制之间、拥有技术知识和权威的人与一无所有的人之间的矛盾对立,其实并不新鲜。新鲜之处在于,另一种智能,即一种非人类的、通常无法以人类理性加以测度的智能,成了这些矛盾的源头。同样新鲜的还有这种新智能的无处不在与无远弗届。那些缺乏人工智能知识或对其无权限者可能特别倾向于排斥人工智能。有一些人,或因对人工智能似乎能剥夺他们的自主权而感到沮丧,或对其产生的附加效应感到恐惧,因而会寻求尽量减少使用人工智能,并与社交媒体或其他人工智能介导的网络平台断开联系,以避免在日常生活中使用(至少是有意使用)人工智能。

社会的某些群体可能会在这条路上走得更远,执着于自身“实体主义者”而非“虚拟主义者”的定位。就像拒绝现代科技的阿米什人和门诺派教徒一样,一些人可能会完全拒绝人工智能,固守一个只有信仰和理性的世界。但随着人工智能的日益普及,“断开连接”将变成一种离群索居、孤家寡人般的自我孤立。事实上,即使是这种断开连接的可能性也是虚幻的:随着社会日益数字化,人工智能日益融入政府和产品,其影响可能使我们避无可避。

科学发现

科学认识的发展往往涉及理论和实验之间的巨大差距以及大量的试错。随着机器学习的进步,我们开始看到一种新的范式出现,在这种范式中,模型不是像传统上那样来自理论认识,而是由基于实验结果得出结论的人工智能来建立。这种方法需要的专业知识不同于开发理论模型或传统计算模型。它不仅需要对问题有深刻的理解,还需要知道哪些数据,以及数据的哪些表征,将有助于训练一个人工智能模型来解决问题。例如,在发现 Halicin 的过程中,选择哪些化合物以及将这些化合物的哪些属性输入模型,既至关重要,又充满偶然。

机器学习对科学认识的重要性日益增加,这对我们看待自己的方式和我们在世界上所扮演的角色提出了另一个挑战。科学历来是人类的专业知识、直觉和洞察力的巅峰组合。在理论和实验的长期相互作用中,人类的聪明才智推动了科学探索的各个方面,但人工智能为科学探究、发现和理解增加了一种非人的、与人类相异的世界概念。机器学习产生的结果正日益令人感到惊讶,这些结果也催生了新的理论模型和实验。正如国际象棋大师已经采纳了 AlphaZero 那些出人意料的原创策略,并将其解释为一项可以提高自身对棋局理解的挑战一样,许多学科的科学家也开始亦步亦趋。在整个生物、化学和物理科学领域,一种混合的伙伴关系正在成形,人工智能正在促成新的发现,那是一些人类虽未能亲自发现,却可以努力去做出相应理解和解释的发现。

人工智能在生物和化学科学领域推动广泛发现的一个突出例子是 AlphaFold 的开发,这一程序使用强化学习构建了高效的蛋白质新模型。蛋白质是复杂的大分子,在生物系统的组织、器官的结构与功能, 以及生物过程的调节中起着核心作用。一个蛋白质分子是由数百个(或数千个)被称为氨基酸的小单位组成的,这些小单位彼此连接在一起形成长链。因为在蛋白质的形成过程中有 20 种不同类型的氨基酸,一种常见的方法是将蛋白质视为一个包含数百(或数千)个字符的序列,其中每个字符都是从一个由 20 个字符组成的“字母表”中选出的。

虽然氨基酸序列对研究蛋白质非常有用,但其未能呈现这些蛋白质的一个关键方面:由氨基酸链形成的三维结构。我们可以把蛋白质想象成需要在三维空间中结合在一起的复杂形状,就像锁和钥匙一样,以实现特定的生物或化学结果,比如疾病的进展或治愈。在某些情况下,蛋白质的结构可以通过晶体照相术等颇为辛苦的实验方法来测量。但在许多情况下,这种方法会扭曲或破坏蛋白质,使其结构无法测量。因此,从氨基酸序列中确定三维结构的能力至关重要。自 20 世纪 70 年代以来,这一挑战被称为“蛋白质折叠”。

在 2016 年之前,学界在提高蛋白质折叠的准确性方面没有太多建树,直到一个名为 AlphaFold 的新程序取得了重大进展。正如其名称所暗示的,AlphaFold 的灵感来自开发人员教 AlphaZero 下棋时采取的方法。与AlphaZero 一样,AlphaFold 使用强化学习来模拟蛋白质,而不需要人类的专业知识, 即之前的方法所依赖的已知蛋白质结构。AlphaFold 将蛋白质折叠的准确性从大约 40% 提高了一倍多,达到约 85%,这使得世界各地的生物学家和化学家能够重新审视他们以前无法回答的问题,并提出关于如何对抗人类、动物和植物中病原体的新问题。2 像 AlphaFold 这样的进步若没有人工智能参与便不可想象。人工智能正在超越以往在测量和预测方面的极限,其结果是改变了科学家为治疗疾病、保护环境和解决其他基本挑战而获取相应知识的方式。

教育与终身学习

人工智能时代的到来将改变我们与他人,以及我们与自己的关系。正如今天“数字原生代”和之前的几代人之间存在代沟一样,“人工智能原生代”和他们的前辈之间也会出现差异。未来,孩子们可能在比 Alexas和谷歌 Homes 更先进的人工智能助手的陪伴下长大,这个助手将保姆、导师、顾问、朋友等多种角色融于一身。这样的助手几乎可以教孩子任何语言,也可以训练孩子学习任何科目,并根据每个学生的表现和学习风格来因材施教,使他们获得最佳的学习成果。当孩子感到无聊时,人工智能可以作为玩伴;当孩子的父母不在时,人工智能又可以成为监护者。随着由人工智能提供和量身定制的教育被引入,普通人的能力既会有所提高,也会面临挑战。

人类和人工智能之间的界限将会惊人地模糊。如果孩子在年幼之时就用到了数字助手,他们就会对此习以为常。同时,数字助手将与它们的主人一起成长发展,并随着他们的成熟,将他们的喜好和偏见逐渐内在化。数字助手的任务是通过个性化来最大化其人类同伴的便利感或满足感,它们给出的建议和信息可能会被人类用户视为必不可少,即使人类用户无法确切解释为什么它们要好于其他任何替代资源。

长此以往,个人可能会更偏爱自己的数字助手,而不是人类,因为人类不懂得投其所好,而且更“令人讨厌”(即使仅仅因为某人的个性和欲望与其他人不同)。结果,我们对彼此的依赖、对人际关系的依赖,可能都会被削弱。到那时,那些童年时代妙不可言的特质和无可替代的教训将是什么模样呢?一种并不能感知或体验人类情感(但可能会模仿人类情感)却给予无处不在陪伴的机器,将如何影响孩子对世界的感知及其社会化?它将如何塑造想象力?它将如何改变游戏的本质?它将如何改变交友或融入社会的过程?

可以这么说,数字信息的唾手可得已经改变了一代人的教育和文化体验。现在,世界正在开展另一项“伟大实验”,在这个实验中,孩子们将在机器的陪伴下成长,这些机器将在许多方面充当以前世代人类教师那样的角色,却没有人类的感觉、洞察力和情感。最终,实验参与者可能会问,他们的经历是否以他们未曾预料或不能接受的方式被改变了呢?

父母也许会因为担心这种接触会对孩子产生不确定的影响而排斥这种技术。就像上一代的父母限制孩子看电视的时间,现在的父母限制孩子使用数码设备的时间一样,未来的父母可能会限制人工智能陪伴孩子的时间。但那些希望推动孩子取得成功的人, 或者没有意愿或能力让孩子得到人类父母养育或人类导师教导而只能依赖人工智能的人,或者只是想满足孩子结交人工智能朋友愿望的人,可能会赞成让孩子与人工智能为伴。因此,这些尚处在学习与发展阶段、易受影响的孩子,可能通过与人工智能的对话形成他们对世界的印象。

具有讽刺意味的是,尽管数字化让越来越多的信息变得可用,但它却压缩了深入、专注思考所需的空间。今天几乎持续不断的媒体流增加了思考的成本,因此减少了思考的频率。算法为了回应人类对刺激的渴望而力推那些夺人眼球的事物,而能够夺人眼球的,往往也是戏剧性的、出人意料的和有感染力的。一个人能否在这种环境中找到思考的空间是一个问题,而如今占主导地位的交流形式不利于促进有节制的理性,这是另一个问题。

新信息中介

正如我们在第四章中所述,人工智能正日益塑造我们的信息领域。为了传播和组织人类经验,中介机构应运而生。这些组织和机构提炼复杂的信息,强调个人需要了解的内容,并将结果广而告之。随着体力劳动分工的细化,社会也开始分配脑力劳动,报纸和期刊纷纷创建,用以向公民发布信息,大学也被用来对公民进行专科教育。从那时起,此类组织和机构便负责收集、提炼和传播信息,并确定其意义。

现在,从金融到法律,在每一个以密集脑力劳动为特征的领域,人工智能都正在被整合到学习的过程中。但人类并不是总能验证人工智能呈现的内容是否具有代表性,就像我们不是总能解释为什么 TikTok 和YouTube 等应用会推广某些视频而非其他。而真人编辑和主播可以解释他们选择呈现内容的原因所在,无论其是否准确。只要人们还期望这样的解释,人工智能时代就会让大多数不了解其技术过程和机制的人感到失望。

人工智能对人类知识的影响是自相矛盾的。一方面,人工智能中介能够浏览和分析的数据的规模,比人类在无此协助之前所能想象的要大得多。另一方面,这种处理大量数据的能力,可能也会加大对数据的操纵和误导。人工智能能够比传统宣传机构更有效地利用人类的激情,它会根据个人偏好和本能进行调整,以给出其创造者或用户所希望的回应。同样,人工智能中介的运用也可能放大固有偏见,即使这些中介在技术上还在人类掌控之下。市场竞争的起伏变化促使社交媒体平台和搜索引擎竞相呈现用户最感兴趣的信息。结果,那些被认为是用户喜闻乐见的信息获得了优先排序,扭曲了现实的本来面貌。就像技术在 19 世纪和 20 世纪加速了信息生产和传播的速度一样,在这个时代,信息正因人工智能在传播过程中的参与而发生改变。

有些人会寻求信息过滤不被扭曲,或者至少察觉到这种扭曲。有些人会权衡各个过滤途径,从而独立地衡量结果。还有一些人则可能会选择完全排斥人工智能,而更偏爱通过传统的人工信息中介进行过滤。然而,当社会中的大多数人接受人工智能中介时——无论将其作为一种默认选项,还是作为从网络平台赋能的代价——那些仍在通过研究和理性来追求传统形式的个人探究者,可能会发现自己无法跟上时代发展的步伐。他们肯定会发现自我塑造的能力日益受限。

如果信息和娱乐变得沉浸化、个性化和合成化,比如人工智能挑选的“新闻”证实了某些人长期持有的信念,或者人工智能制作的电影让去世多年的演员担任了“主演”,一个社会还会对其历史和时事有共同的理解吗?它还会有共同的文化吗?如果一个人工智能被指示扫描一个世纪以来的音乐或电视,并以此制作出“轰动一时”的作品,它是在创作,还是仅仅在组装?那些传统上被视为人类与现实和生活经验产生独特接触的劳动者,比如作家、演员、艺术家和其他创作者,届时将如何看待自己,又如何被他人看待?

人类的全新未来

传统的理性和信仰将在人工智能时代继续存在,但其性质和范围必将因为引入一种新的、强有力的、机器运作的逻辑形式受到深刻影响。人类身份可能会继续停留在“生命智能”的顶峰,但人类理性将不再被视为致力于理解现实的智能的全部。为了厘清我们在这个世界上的地位,我们的侧重点可能需要从“以人类理性为中心”转移到“以人类尊严和自主性为中心”。

启蒙运动的特点是试图界定人类理性,并根据理性与先前人类时代的关系,在与这些时代的对比中对其加以理解。霍布斯、洛克、卢梭及其他启蒙运动时期的政治哲学家从理论上的“自然状态”中导出他们的概念,并从中勾勒出关于人类属性和社会结构的系列见解。当时的领导人又转而提出问题:如何才能汇集人类知识并进行客观的传播,以实现开明的政府和人类的繁荣?如果我们未能像前人那样全力以赴地去理解人性,那么人工智能时代将注定让我们迷失其中。

谨慎者可能会寻求限制人工智能,将其使用局限于零散功能,并限定其使用时间、场所和方式。社会或个人可能会保留自己的首席和裁判者角色,将人工智能置于辅助的次要位置。然而,竞争带来的活力与变化将对这些限制构成挑战,我们在前一章提出的安全困境就是最鲜明的例证。除非受到基本的道德或法律限制,否则又有哪家公司会甘愿放弃掌握竞争对手用来提供新产品或服务的与人工智能功能相关的知识呢?如果人工智能让行政官员、建筑师或投资者能够轻松预测结果或结论,那么有什么理由可以让他们不使用人工智能?考虑到实施限制措施将会承受的压力,需要在全社会或国际层面上对那些表面上可取的人工智能用途制定限制。

人工智能可能在探索和管理现实世界和数字世界方面发挥主导作用。在特定领域,人类可能会对人工智能言听计从, 更青睐人工智能的数据处理而非人类心智的局限。这种遵从,可能使许多人甚至大多数人退回到一个自我定制、自我封闭的个体化领域中。在这种情境下,人工智能的力量加上它的普遍性、隐蔽性和不透明性,将引发人们对自由社会甚至自由意志前景的怀疑。

在许多领域,人工智能和人类将成为探索事业中的平等伙伴。由此,人类身份将反映出与新关系的和解,无论是与人工智能还是与现实。不同的社会将为人类领导权保留各自不同的领地。同时,它们将形成必要的社会结构和习惯,以理解人工智能并与其有效互动。为了与人工智能融洽相处,社会需要建立相应知识和心理基础设施,并运用其独特才智,尽可能地造福人类。技术将迫使政治和社会生活的许多方面(实际上是大多数方面)做出调整。

在每个独立的人工智能新运用布局中,建立平衡至关重要。各个社会及其领导人将不得不选择何时告知社会中的个人,他们正在与人工智能打交道,以及他们在这些互动中拥有何种权力。最终,通过这些选择,一个人工智能时代的全新人类身份呼之欲出。

一些社会和制度可能会逐步适应,然而,另一些却可能会发现,它们的基本假设与它们感知现实和自身的方式相冲突。由于人工智能促进了教育和信息获取,同时也增加了信息被夸大和操纵的可能性,这些冲突可能会愈演愈烈。个人的消息会更灵通、准备会更充分、观点会有更大影响力,他们可能据此对政府提出更多要求。

每个社会必须在一开始先确定人工智能在各个领域的全部可允许和不可允许的使用范围。对某些强大的人工智能,如通用人工智能的使用权,将需要严格把关,以防止被滥用。因为通用人工智能的建造成本可能相当高昂,只有少数组织能够建造,所以其使用会受此固有限制。某些限制可能违反一个社会的自由企业和民主进程的理念。而在其他方面,如限制在生物武器生产中使用人工智能的必要性,应该很容易达成一致,但需要国际合作。

截至本书撰写时,欧盟已经勾勒出规范人工智能的计划纲要,旨在将隐私和自由等欧洲推崇的价值观,与经济发展的需要和对欧洲本土人工智能公司的支持相平衡。该监管框架包括对人工智能的各种用途进行风险评估,并限制甚至禁止政府使用某些被视为高风险的技术,如人脸识别(尽管人脸识别有一些有益用途,如寻找失踪人口和打击人口贩运)。毫无疑问,这些初步概念会面临广泛的争议和修改,但这也是一个社会决定限制人工智能范围,并相信此举能够使其推动生活方式进步和未来发展的先例。

假以时日,这些努力将会被制度化。在美国,学术团体和咨询机构已经开始研究现有流程和结构与人工智能崛起之间的关系。其中包括学术界的努力,例如麻省理工学院提出的解决未来工作的倡议;也包括政府的参与,比如国家人工智能安全委员会。有些社会可能完全放弃对此的解析,它们将落后于另一些社会。后者会进行相应探究,提前调整自身制度,或如我们在下一章中讨论的那样建立全新的制度, 从而减少过渡期的错位,并最大化与人工智能的伙伴关系带来的物质和知识利益。随着人工智能的发展,建立这样的制度将至关重要。

对现实和人性的感知

由人工智能探索或在人工智能辅助下探索的现实,可能会超越人类想象。它可能包含我们从未察觉或无法概念化的模式;它被人工智能所洞察的底层结构,可能是无法用人类语言表达的。正如我们的一位同行对AlphaZero 加以观察后所说:“像这样的例子表明,有一些认知方式是人类意识无法实现的。”

为了探索当代认知的未知疆域,我们可能需要委派人工智能前往那些我们自身无法进入的领域;而当它返航时,也可能带回我们不能完全理解的模式或预言。诺斯替派(Gnostic)哲学家关于存在“超越普通人类经验的内在现实”的预言,可能阐发新意。我们可能会发现, 自己离纯粹知识的概念更近了一步,而不再受我们的心智结构和传统人类思维模式的拘束。我们不仅必须重新界定我们的角色,我们已不再为现实的唯一知者,还须重新界定我们以为自己正在探索的现实。而且, 即使现实没有令我们如此迷惑,人工智能的出现仍可能改变我们与现实以及我们彼此之间的关系。

随着人工智能的普及,一些人可能认为,人类比以往任何时候都更有能力认识和组织周遭的环境。另一些人则可能会宣称,我们并没有自己想象的那么无所不能。这种对我们自身和我们所处现实的重新界定, 将改变关于我们的基本假设,并让社会、经济和政治布局也随之而变。中世纪世界有它的神圣旨意,比如它的封建农业模式、它对王权的崇敬,还有它那高耸的大教堂尖顶所体现的向往。理性时代则有“我思故我在”的省思和对新疆域的追求,以及随之而来的在个人和社会的命运观念中对“推动者”的全新主张。至于人工智能时代,则尚未定义其自身的组织原则、道德概念或其抱负感和局限性。

人工智能革命发生之迅猛,将超过大多数人的预期。除非我们发展出新的概念来解释、演绎和组织其所带来的转变,否则无论是对人工智能还是对其所产生的影响,我们都无法驾驭。在道德上、哲学上、心理上、实践上,亦即在各个方面,我们均发现自己正处于一个新时代的边缘,身后却已无路可退。我们必须动用自己最根本的素养和资源,比如理性、信仰、传统和技术,来调整我们与现实的关系,从而让现实仍是人的现实。

本文节选自亨利•基辛格、埃里克•施密特、丹尼尔•胡滕洛赫尔《人工智能时代与人类未来》,由中信出版社出版。

书名:人工智能时代与人类未来

作者:亨利•基辛格;埃里克•施密特;丹尼尔•胡滕洛赫尔

出版时间:2023年6月

关键词: