谁在害怕邪恶的机器人?可能有很多人。最近,有许多知名人士都发表公开声明或签署公开信,警告人们人工智能可能带来的灾难性后果。
最近几个月,数百名科学家、商界领袖和政策制定者纷纷发声,从深度学习先驱杰弗里·辛顿(Geoffrey Hinton)和约书亚·本吉奥(Yoshua Bengio),到山姆·奥特曼(Sam Altman)和杰米斯·哈萨比斯(Demis Hassabis)等顶级人工智能公司的 CEO,再到美国加州国会议员特德·立尤(Ted Lieu) 和爱沙尼亚前总统克斯蒂·卡尔尤莱德(Kersti Kaljulaid)。
(来源:STEPHANIE ARNETT/MITTR | GETTY)
(资料图)
最严厉的警告由所有这些人物和更多人签署——人工智能安全中心(CAIS)在六月发布了一份 22 字声明,该中心是一家总部位于旧金山的推动政策议程的研究组织。它宣称:“减轻人工智能带来的灭绝风险,应该与流行病和核战争等其他社会级风险一起成为全球优先事项。”
声明的措辞是经过深思熟虑的。CAIS 主任丹·亨德里克斯(Dan Hendrycks)表示:“如果我们采用罗夏墨迹测验类型的声明,我们会说‘存在的风险(existential risk)’,因为这对很多不同的人来说可能有不同的意思。” 但他们想澄清一件事,这并不是为了让经济陷入困境。“这就是为什么我们选择‘灭绝的风险(risk of extinctions)’,尽管我们很多人也担心各种其他风险,”亨德里克斯说。
我们以前也经历过这样的情况:人工智能的末日论往往伴随着人工智能的炒作。但这一次感觉不同了。奥弗顿窗口已经转移。曾经的极端观点现在已成为主流话题,不仅成为头条新闻,还引起了世界领导人的关注。研究技术的社会影响的组织“数据与社会”的研究主任珍娜·伯勒尔表示:“人们对人工智能的担忧已经变得不容忽视。”
这是怎么回事?人工智能真的变得(更加)危险了吗?为什么引领这项技术的人现在却发出了警告?
实际上,这个领域里的其他人持有不同的观点。前不久,Meta 首席科学家、与辛顿和本吉奥共同获得 2018 年图灵奖的杨立昆(Yann LeCun)称这种厄运论“极其荒谬”。人工智能公司 Cohere 的 CEO 艾丹·戈麦斯(Aidan Gomez)表示,这是“对我们时间的荒谬利用”。
其他人也嗤之以鼻。Signal 总裁梅雷迪思·惠特克(Meredith Whittaker)表示:“与 1950 年相比,现在并没有更多的证据表明人工智能将带来这些生存风险。鬼故事具有感染力——害怕令人感到兴奋和刺激。”
“这也是观察当今发生的一切的一种方式,”伯勒尔说。“这表明我们还没有看到真正或严重的伤害。”
古老的恐惧
自阿兰·图灵以来,对失控的、自我强化机器的担忧就一直存在。弗诺·文奇(Vernor Vinge)和雷·库兹韦尔(Ray Kurzweil)等未来学家通过谈论所谓的“奇点(Singularity)”来传播这些想法——所谓的奇点,是人工智能超越人类智能并由机器接管人类世界的假想时间点。
但这些担忧的核心是控制问题:如果(或何时)机器变得更聪明,人类如何保持领先地位?在一篇名为“人工智能如何构成生存风险?”的论文中,多伦多大学人工智能哲学家卡琳娜·沃尔德(Karina Vold)在 2017 年发表的论文中阐述了担忧背后的基本论点。她同为 CAIS 声明的签署者之一。
有三个关键前提。第一,人类有可能建造出一台超越所有其他智能体的超级智能机器。第二,我们可能无法控制比我们更聪明的超级智能。第三,超级智能可能会做我们不希望它做的事情。
把所有这些放在一起,就有可能制造出一台机器,它会做我们不希望它做的事情——甚至包括消灭人类——而我们将无法阻止它。
这种情况也有不同的版本。当辛顿在五月份提出他对人工智能的担忧时,他举了机器人重新调整电网路线以给自己提供更多电力的例子。但超级智能(或 AGI,通用人工智能)并不是必需的。如果有太多的权限,愚蠢的机器也可能是灾难性的。在许多糟糕的情况下,只要人类的部署是轻率或恶意的,那么机器人有没有自私自利的倾向都无所谓。
六月份发布的一篇论文中,加州大学伯克利分校的人工智能研究人员斯图尔特·拉塞尔(Stuart Russell)和安德鲁·克里奇(Andrew Critch)(他们也签署了 CAIS 声明)对生存风险进行了分类。其中包括建议数百万人从大学退学的提供建议的聊天机器人,到追求有害经济目的的产业,再到建造人工智能驱动的超级武器。
在许多想象的情况下,理论模型实现了人类给定的目标,但其方式却对我们不利。亨德里克斯研究了深度学习模型在给予训练数据中未见的输入时,有时会以意想不到的方式表现,对于他来说,人工智能系统可能是灾难性的,因为它是有缺陷的,也不是万能的。“如果你给它一个目标,并且它找到了从未有过的解决方案,那么它将带我们踏上一段奇怪的旅程,”他说。
这些可能的未来的问题在于它们依赖于一系列假设,这使得它们听起来像科幻小说。沃尔德自己也承认这一点。“由于构成或促成(生死存亡风险)的事件是前所未有的,因此关于它们构成这种威胁的论据本质上是理论上的,”她写道。“它们的稀有性也使得任何关于此类事件如何或何时发生的猜测都是主观的,无法通过经验验证。”
那么,为什么越来越多的人相信这些想法的表面价值呢? 谷歌人工智能研究员弗朗索瓦·肖莱(François Chollet)表示:“不同的人谈论风险的原因不同,他们的意思也可能不同。” 但这叙述本身也是难以抗拒的:“人类的生死存亡,一直是一个吸引人的故事。”
“其中有一种不容忽视的神话的、近乎宗教的元素,”惠特克说。“我认为我们需要认识到,鉴于所描述的内容没有以证据为基础,它更接近于一种信仰,一种宗教狂热,而不是科学话语。”
末日论的传播
当深度学习研究人员第一次开始取得一系列成功时(想想辛顿和他的同事在 2012 年 ImageNet 竞赛中破纪录的图像识别成绩,以及 DeepMind 在 2015 年凭借 AlphaGo 首次战胜人类棋手),关于人工智能的炒作很快就开始了。继而转向了末日论预言。
斯蒂芬·霍金(Stephen Hawking)和宇宙学家马丁·里斯(Martin Rees)等知名科学家,以及埃隆·马斯克(Elon Musk)等知名科技领袖,都对人类的生存风险发出了警告。但这些人并不是人工智能专家。
八年前,深度学习先驱、时任百度首席科学家的吴恩达(Andrew Ng)站在圣何塞的讲台上,对这个想法一笑置之。
“在遥远的未来,可能会出现一场杀手机器人的竞赛,”吴恩达在 2015 年英伟达 GPU 技术大会上对观众说。“但我今天并不致力于不让人工智能变得邪恶的原因,就像我不担心火星上人口过剩的问题一样。”(科技新闻网站 The Register 当时报道了吴恩达的话。)
吴恩达于 2011 年共同创立了谷歌人工智能实验室,现任 Landing AI 的 CEO。他此后在采访中不断重复这句话。但现在他不那么乐观了。“我保持开放的态度,正在与一些人交流以了解更多信息,”他告诉我。“技术的快速发展让科学家们重新思考风险。”
和许多人一样,吴恩达对生成式人工智能的快速发展及其滥用的可能性感到担忧。他指出,不久前,一张广泛传播的人工智能生成的五角大楼爆炸图片让人们感到非常害怕,以至于引发了股市下跌。
“人工智能如此强大,但不幸的是,它也可能会导致非常大的问题,”吴恩达说。但他没有谈到杀手机器人:“现在,我仍然很难理解人工智能会如何导致我们的灭绝。”
另一件新鲜事是,人们普遍意识到人工智能可以做什么。去年年底,ChatGPT 将这项技术公之于众。“人工智能突然成为主流的热门话题,” 肖莱说道。“人们正在认真对待人工智能,因为他们现在看到了其能力的突然飞跃,就认为未来会有更多的飞跃。”
与聊天机器人交谈的体验也可能令人不安。对话这项行为,通常被理解为人类之间所做的事情。惠特克说:“它为人工智能像人类或有感知能力的对话者这一想法增添了一种合理性。我认为,一种‘如果人工智能可以模拟人类交流,那么它也可以做 XYZ ’的想法,在一定程度上支持了末日论的设想。”
“我认为存在风险对话恰好适合作为一个开始——在没有证据的情况下进行推断,”她说。
展望未来
我们也有理由愤世嫉俗。随着监管机构对科技行业的步步紧逼,摆在桌面上的问题是哪些类型的人工智能活动应该或不应该受到限制。过于强调长期风险而不是短期危害(例如歧视性招聘或错误信息),会让监管机构重新将注意力集中在假设的问题上。
“我怀疑,真正的监管限制带来的威胁促使人们采取了立场,”伯勒尔说。谈论灭绝的风险可能会证实监管机构的担忧,而不会损害商业机会。“对抗人类的超级智能的人工智能听起来很可怕,但它显然还没有出现,”她说。
加剧对生存风险的担忧在其他方面也对企业有利。肖莱指出,顶级人工智能公司需要我们相信通用人工智能即将到来,并且他们是构建通用人工智能的人。“如果你想让人们认为你正在做的事情很强大,那么让他们害怕它是个好主意,”他说。
惠特克也持类似观点。“将自己塑造成一个比人类更强大的实体的创造者是一件很重要的事情,”她说。
如果只是为了营销或炒作,那么这一切都无关紧要。但决定哪些是风险,哪些不是,会产生连锁反应。在预算和注意力有限的世界中,没有核战争那么严重的危害可能会被忽视,因为我们容易默认它们不是优先事项。
“这是一个重要的问题,特别是随着人们越来越关注安全作为政策干预的狭隘框架,”AI Now 研究所董事总经理莎拉·迈尔斯·韦斯特(Sarah Myers West)表示。
当英国首相里希·苏纳克(Rishi Sunak)在五月会见山姆·奥特曼 (Sam Altman) 和德米斯·哈萨比斯 (Demis Hassabis) 等人工智能公司负责人时,英国政府发表声明称:“首相和 CEO 讨论了该技术的风险,涵盖虚假信息,国家安全和生存威胁。”
不久前,奥特曼告诉美国参议院,他最担心的是人工智能行业会对世界造成重大伤害。奥特曼的证词引发了一波呼声,一些人希望建立新型机构来解决这种前所未有的伤害。
随着奥弗顿窗口的移动,那些传说中的损害已经造成了吗?“如果我们谈论遥远的未来,如果我们谈论神话一样的风险,那么我们就完全将问题重新定义为‘存在于幻想世界中的’问题,并且其解决方案也可以存在于幻想世界中,”惠特克说道。
但惠特克也指出,围绕人工智能的政策讨论已经持续多年,比最近的恐惧感持续得还要长。“我不相信必然性,”她说。“我们将会看到这种炒作遭到反噬。它会消退的。”
支持:Ren
关键词: