>首页> IT >

专访DeepMind CEO哈萨比斯:揭秘谷歌大脑与DeepMind合并内幕

时间:2023-07-28 12:16:22       来源:腾讯网

本期内容摘要:

1DeepMind缘起于创始人们对通用人工智能系统的激情2为什么ChatGPT能让人工智能真正走进公众意识?3DeepMind与Google Brain合并,真正的问题在于目标与资源的协调一致4AGI之路不能一蹴而就5人工智能开源与闭源的得与失6AI的监管需要国际性的规则和框架7人类标注数据对人工智能是必须的吗?

Google DeepMind CEO Demis Hassabis

作者丨适道


(资料图片仅供参考)

ChatGPT的火爆和微软在人工智能领域的突飞猛进(从New bing,Copilot到众多AI领域的重要投资)给谷歌带来了越来越强的压力。尽管谷歌仍然是人工智能领域积淀最深厚的公司之一,本次生成式人工智能爆发的来源Transformer模型也是由它的研究人员们发明,但是现在不仅Transformer的作者们全都出走创业,它用来对标ChatGPT的聊天机器人Bard也不温不火。

为了集中精锐力量,应对微软、OpenAI这些公司的威胁,谷歌决定将旗下两个最顶尖的人工智能研究组织DeepMind和Google Brain合并成Google DeepMind,由DeepMind的联合创始人Demis Hassabis(戴米斯·哈萨比斯)担任这个新组织的CEO。

DeepMind由Demis Hassabis、Shane Legg和Mustafa Suleyman(他现在是AI独角兽InflectionAI的联合创始人)于2010年联合创立,它一直专注于人工智能的通用性基础研究。

知名投资机构Horizons Ventures和Founders Fund,以及个人投资人Scott Banister、Peter Thiel和Elon Musk都对DeepMind进行了投资。

在2014年被谷歌以4亿美元的价格收购之后,DeepMind一直保持着相对独立的组织形态,但在计算资源等方面获得了更多支持。而2014年,正是它开始研发AlphaGo的时间点。

2016年3月,AlphaGo击败围棋世界冠军李世乭,震惊世界。在AlphaGo之后,AlphaZero成为更强大的棋类AI,它不仅能下围棋,还能下象棋,这项研究成果也登上了《Science》杂志。

另一方面,DeepMind也在AI For Science上发力,它们的AlphaFold 几乎解析了全部蛋白质的结构,被数十位诺贝尔奖级别的学者认可,也被各大医药生物公司使用。

Google Brain起源于斯坦福大学与谷歌的联合研究计划,最初的三位成员是Jeff Dean,Greg Corrado和吴恩达,图灵奖得主Hinton此后也在这里主持了很多重要工作。

在Jeff Dean的领导下,Google Brain一直在人工智能的各个领域耕耘,从谷歌翻译,到机器人,再到Transformer,它们的技术被应用到谷歌产品的方方面面,他们培养的人才也散落到硅谷各个主要的人工智能公司(OpenAI的首席科学家Ilya Sutskever也曾在Google Brain工作)。

在两个团队合并成Google DeepMind之后,外界都猜想Google Brain和DeepMind的团队是否能够兼容,它们是会真的集中力量在人工智能领域并再次实现突破,还是会因为文化和组织的冲突而一地鸡毛。

著名科技媒体The Verge旗下的播客节目《Decoder》对Google DeepMind CEO哈萨比斯进行了一个小时的深度专访。在专访中,哈萨比斯不仅揭秘了Google Brain与DeepMind的合并内幕,而且对AGI的未来,人工智能的风险与监管,开源是否会颠覆大公司,以及人工智能对人类工作的替代和人类评分员对人工智能的意义等重要问题进行了深度讨论。

划重点:

1. ChatGPT引起的轰动,表明了人工智能已经处于对人们日常生活实际有用的阶段,它已经能解决真正重要的现实问题,而不仅仅是好奇心或有趣的游戏。当意识到这一转变时,我认为你有必要改变自己的研究方法,并提升对这些产品和技术的关注程度。

2. Google和DeepMind合并之后,只有一个焦点问题,那就是两个团队之间的协调。比如要把重点放在哪些地方,是两个团队分别做,还是一起做?人工智能已经进入新的阶段,需要大量的资源。即使谷歌这样规模的公司,也必须仔细挑选赌注,明确我们要把箭杆(资源)放在哪些箭头(目标)后面,然后专注于这些箭头,进而大规模的实现这些东西。

3. 我并不认为数据标注和人工对齐是人类帮助人工智能在未来取代自己。我理解,人类评分员所做的事情是使人工智能系统更安全、对每个人更有用、更有帮助以及成为更可靠的开发周期的一部分。

1. DeepMind缘起于创始人们对通用人工智能系统的激情

《Decoder》主持人Nilay Patel:欢迎Google DeepMind的首席执行官Demis Hassabis。我认为我们从未有过如此完美的嘉宾。在人工智能领域,伟大的想法总会伴随着一系列的挑战和问题。特别是您,需要面对一个巨大的组织结构调整和一系列利害攸关的决定。很高兴您能来到这里。

Google DeepMind CEO Demis Hassabis:很高兴来到这里,感谢您的邀请。

Nilay:Google DeepMind是谷歌旗下的新公司,由谷歌现有的两个部分构建而成。

Google Brain是我们熟悉的人工智能团队,由Jeff Dean主导。还有你创立的公司DeepMind,你在2014年将它卖给了Alphabet。在这之前DeepMind一直作为一家独立的公司运行。我们从最开始说起,为什么DeepMind被收购后还能保持相对独立?

Hassabis:我们早在2010年就创立了DeepMind。这在人工智能时代,就像在说史前史一样。我来自学术界,看到了很多当时正在发生的技术变革,例如深度学习,我自己则是强化学习的拥护者。我也看到了GPU和其他硬件正开始被用于人工智能。

我当时认为,如果专注于通用学习系统,并从神经科学和大脑工作原理中汲取一些想法,就能取得巨大进步。

带着这些想法,我与其他创始人一起创立了DeepMind。2014年,我们决定与谷歌联手。因为我们需要更多的算力,而谷歌拥有当时世界上最多的AI算力。这显然是我们能集中精力以最快速度推动研究的地方。

Nilay:所以,谷歌收购了你们,但DeepMind仍然保持相当程度的独立。当时谷歌用Google Brain做LLM(适道注:LLM即大语言模型)的研究。我记得6-7年前,谷歌在I/O大会上展示了LLM,而DeepMind却专注于赢得AlphaGo与人类的比赛,还研究了蛋白质折叠。这些都是在Google Brain之外的另一种人工智能研究,为什么你们具有这种独立性?

Hassabis:这是协议的一部分,我们被要求继续推进通用人工智能研究。通用人工智能被称为AGI,可以应对范围广泛的认知任务,基本上具有人类水平的认知能力。

同时,利用人工智能加速科学发现也是我的个人激情之一,这也是我们专注于AlphaFold等项目的原因。

在开始DeepMind的创业之前,我认为游戏是高效、快速开发人工智能算法的理想测试场。你可以生成大量数据,而且目标函数非常清晰:就是赢得比赛或得分最大化。因此,在人工智能研究的早期,有很多理由使用游戏进行测试。这就是为什么我们如此成功,而且能够在AlphaGo等方向进展如此之快的重要原因。这些都是整个领域的重要证明点:一部分通用学习技术是可行的。

我们在深度学习方面做了很多工作,我们的专长是将深度学习与强化学习结合起来,让系统能够主动解决问题、制定计划、并赢得比赛。就差异而言,我们一直致力于推动研究,推动先进科学的发展。

这就是我们的工作重点,也是我想要的工作重点。

Google Brain的职责与我们不同,他们更接近产品。我们也有一个应用部门,将DeepMind惊人的人工智能技术引入谷歌的产品中。但我们的文化和职责是完全不同的。

2. 为什么ChatGPT能让人工智能真正走进公众意识?

Nilay:从外部来看,时间轴是这样的:每个人都为人工智能的发展工作了很久,然后ChatGPT发布了。每个使用过它的人都被震撼了。微软发布了基于ChatGPT的产品,世界变得天翻地覆。谷歌的反应是将DeepMind并入Google Brain。

但从内部感觉像什么?

Hassabis:时间轴是正确的,但它不是这种直接的后果,它在某种意义上更间接。

谷歌的内部文化是支持百花齐放。我认为,这一直是拉里和谢尔盖(适道注:他们是谷歌的联合创始人)从一开始建立谷歌的方式。他们提供了很好的服务,使谷歌能创造出令人难以置信的东西,并成为今天这家令人惊叹的公司。

在研究方面,我认为它(适道注:指谷歌百花齐放的文化)与做研究非常兼容,这也是我们在2014年选择谷歌的另一个原因。我觉得他们真正理解什么是基础研究,什么是雄心勃勃的研究。

你看到了结果,对吧?无论用什么标准衡量,我们都取得了世人认可的成就:AlphaGo,AlphaFold,超过20篇《Nature》和《Science》论文。但在某种程度上,ChatGPT和大语言模型以及公众对此的反应证实了人工智能已经进入了一个新时代。

对于我们这些处在人工智能第一线的人来说,我们惊讶的不是技术,而是公众对此的需求。因为包括OpenAI,Anthropic还有我们,大家都能训练大模型,能力大致是相同的。

ChatGPT引起的轰动,表明了人工智能系统的成熟度和先进性已经达到了一定水平,可以真正走出研究阶段和实验室,为令人难以置信的下一代产品和体验提供动力。

同时人工智能在科学研究上也取得了突破性进展,如AlphaFold技术直接为生物学家所用。

因此,这表明了一个新的阶段:人工智能正处于对人们日常生活实际有用的阶段,它已经能解决真正重要的现实问题,而不仅仅是好奇心或有趣的游戏。当意识到这一转变时,我认为你有必要改变自己的研究方法,以及对这些产品和技术的关注程度。

我们都意识到,现在是时候精简我们的人工智能工作,并集中更多的精力,这自然而然地推动了合并。

Nilay:导致今年人工智能火爆的ChatGPT时刻,是因为人工智能可以帮助普通人做得更好。

之前人工智能也做到了很厉害的事,例如AlphaFold解锁了蛋白质结构,为什么那没有引起人们真正的热情?

Hassabis:大语言模型真正进入公众意识的原因,是因为它能被公众真正理解,帮助人们做事,并能够用自然语言互动——它走进了我们的日常生活。这确实解释了为什么聊天机器人会以这样的方式走红。

尽管AlphaFold很厉害,我也认为它产生了人工智能对世界最明确,最大的有益影响:因为现在有100万生物学家、研究人员和医学研究人员使用过AlphaFold。几乎世界上所有的生物学家和医药公司都在使用它来推进药物发现项目。已经有数十位诺贝尔奖获得者级别的生物学家和化学家向我讲述了他们是如何使用AlphaFold技术的,它影响并大大加速了他们的重要研究工作。

但普通人甚至不知道蛋白质是什么,也不知道AlphaFold对药物发现等工作的重要性。

很明显,一个强大的聊天机器人,每个人都能理解它是不可思议的。它可以帮你写诗,帮你处理工作上的事情,这是非常直观的。

Nilay:但ChatGPT这样的聊天机器人因为直接接触大众,它的一些不可控的“言论”也使它成为风险的焦点。有人认为它会在未来毁灭人类,人们都呼吁对这类技术和产品进行审查。

你在研究AlphaFold时,是否也感受到了同样程度的审查?似乎没有人认为AlphaFold会毁灭人类。

Hassabis:我不认为AlphaFold会毁灭人类,但它确实经过了很多知名专家的多次审查。

我们与生物领域的30多位专家进行了讨论,他们包括顶级生物学家、生物伦理学家、生物安全专家,我们与欧洲生物信息研究所合作发布了包含所有蛋白质结构的AlphaFold数据库。他们还指导我们如何安全地发布这些信息。

我们咨询过的绝大多数人的结论都是:这样做的好处远远大于任何风险。不过我们确实根据他们的反馈意见对发布的结构进行了一些小的调整——这是一个非常专业的领域。

关于通用大模型,我确实认为我们正处于一个令人难以置信的新时代的开端。这个时代将在5到10年内到来,不仅是在人工智能的科学进步方面,而且在产品类型方面:我们可以构建改善数十亿人日常生活的产品,帮助他们提高效率,丰富他们的生活。

我认为,今天看到的这些聊天机器人只是表面现象。除了生成式AI,还有更多类型的AI。生成式AI现在是大势所趋,但我认为规划、深度强化学习、问题解决和推理等能力将在下一波浪潮中卷土重来。

因此,我认为在一两年内,如果再次交谈,我们将讨论全新类型的产品、体验和服务,这些都是我们从未见过的能力。我对打造这些东西感到非常兴奋。事实上,这也是我在这个新时代领导Google DeepMind并专注于打造这些人工智能驱动的下一代产品的原因之一。

3. DeepMind与Google Brain合并,真正的问题在于目标与资源的协调一致

Nilay:让我们回到Google DeepMind的话题。对于DeepMind与Google Brain合并,以及你担任CEO,你的反应是什么?

Hassabis:这是在相关团体的领导者对系统成熟度拐点进行判断后的决定。

我会思考在产品领域还有哪些可能,以及如何改善数十亿用户的体验。

所有这些都需要改变研究重点和研究方法,以及所需的资源组合,例如计算资源。

我们作为一个领导小组讨论了大量需要考虑的因素,然后从中得出结论,并采取行动:包括合并、未来几年的计划是什么以及合并后的重点是什么?

Nilay:在谷歌旗下的公司(Google DeepMind)做CEO和在Alphabet旗下的公司(DeepMind)做CEO有什么不同?

Hassabis:在之前,我们已经与谷歌的许多产品团队和小组非常紧密地合作过。

DeepMind有一个应用团队,他们的工作是通过与谷歌产品团队合作,将我们的研究成果转化为产品功能。在过去几年中,我们已经成功发布了许多产品,只是它们大多隐藏在幕后。事实上,你每天在谷歌使用的许多服务、设备或系统,背后都可能会有DeepMind的某种技术进行支撑。

虽然我们因科学(AlphaFold)和游戏(AlphaGo)而闻名,但在幕后,还有许多面包和黄油(产品和盈利)的工作在进行。

现在,在谷歌内部,我们会与产品服务方面的团队进行了更紧密地整合。我认为这是一个优势,因为我们可以与产品团队做更深入以及更令人兴奋和雄心勃勃的事情。但我们仍然保留了一些流程和系统的自由度,这些流程和系统可以优化我们的使命——打造世界上最有能力的人工智能系统。

Nilay:有很多报道说DeepMind与Google Brain的合并会产生文化冲突。你现在同时负责这两个部门。你是如何组织这个团队并管理文化整合的?

Hassabis:事实证明,双方的文化比外界报道的要相似得多,最终,这种融合出乎意料的顺利和愉快,就像我们都在考虑合并和规划合并一样。

这是两个世界级的人工智能研究机构,双方都有令人难以置信的人才和成就。这两个团队的十大技术突破,占过去十年现代人工智能产业突破的80-90%。从深度强化学习到Transformer。

Google Brain是一群非常有才能的人。我们双方都非常尊重彼此,在过去的十年中,双方在项目层面上进行了大量的合作,我们都非常了解对方。

我认为合并之后只有一个焦点问题,就是两个团队之间的协调。比如说,要把重点放在哪些地方,是两个团队分别做,还是一起做?

重要的是,现在我们进入了人工智能的新阶段,这需要大量的资源(包括计算机工程和其他方面的资源)。即使像谷歌这样规模的公司,我们也必须仔细挑选赌注,明确我们要把箭杆(资源)放在哪些箭头(目标)后面,然后专注于这些箭头,进而大规模的实现这些东西。

因此,我认为这是自然进化的一部分,也是我们在人工智能旅程中所处的位置。

Nilay:团队如何合并,专注的方向如何选择,这些都是结构问题。你们决定好架构了吗?你认为会是什么结构?

Hassabis:我们正在研究架构,它仍在进化和改善。我们知道自己只有几个月的时间(去整合)。我们希望确保自己不会破坏任何正在运行的研究。两个团队的工作都非常有成效,做了很多了不起的研究,同时也在开发非常重要的产品。

Nilay:你一直说两个团队。你是想继续两个团队,还是做成一个团队?

Hassabis:我们肯定会整合成一个统一的团队,我称之为超级团队。我对此感到非常兴奋,但很明显,我们还需要时间,来形成新的文化,解决组织结构这些复杂的东西。

我认为,到今年夏天结束时,我们将成为统一的实体,这将是非常令人兴奋的。我们甚至在几个月前就已经通过Gemini等项目感受到两个团队合作带来的好处和优势。

Gemini是我们的下一代项目,多模态大模型,它结合了两个世界级研究小组的最佳想法。

4. AGI之路不能一蹴而就

Nilay:你说有很多DeepMind技术应用到谷歌产品中,但这些产品可能不是最终形态。例如Gemini即将到来,但它可能也需要很多改进。当你考虑这些产品的最终形态时,你看到了什么?

Hassabis:谷歌的人工智能系统不仅是面向消费者的东西,还包括引擎盖下的东西。

例如,我们将人工智能应用于谷歌数据中心的冷却系统,使冷却系统的能源消耗减少了近30%,如果将这一数字乘以所有的数据中心和计算机,就可以得出结论——这是个巨大的进步。

人工智能在很多领域都被用于提高系统的效率。但你是对的,目前的产品并不是最终的形态。我想说的是,包括聊天机器人和这些人工智能系统,最终都将成为令人难以置信的、通用的辅助工具。你可以将它们用于日常生活和工作中的许多事情。从推荐现场活动、到预订旅行、规划行程、再到协助人们完成日常工作。

我认为目前的聊天机器人离这个目标还很远。我们知道它缺少什么:计划、推理和记忆的能力,我们正在努力解决这些问题。今天的聊天机器人与未来几年的聊天机器人相比将显得微不足道。

Nilay:我认为计算机是一个模块化系统,一部手机,有屏幕、芯片、天线等。我也是这么看待人工智能系统的。它有一个大模型,有人类语言界面,背后可能是AlphaFold这样的算法,做的事情是蛋白质折叠。你是如何考虑将这些东西或模块结合在一起的?还是有另一种进化途径?

Hassabis:实际上,有一个完整的研究分支,叫工具使用。

这是一种观点,即这些大语言模型或多模态模型不仅是语言方面的专家,还具备一些其他能力,如数学和编码。

但是,当你要求它们做一些专业的事情,比如折叠蛋白质或下一盘棋,它们会调用工具,然后提供特定问题的解决方案,接着它再通过自然语言或者其他易于理解的方式将结果传送给用户。

对用户来说,这是一个拥有多种功能的大型人工智能系统。但在其内部,人工智能系统可能被细分为更小的系统,这些系统都有各自的专长。我认为下一代系统可能会使用这些能力。

Nilay:你的研究方向是AGI(通用人工智能),这个过程会让你更接近AGI,还是会让你达到某种最高状态?

Hassabis:我认为这是通往AGI的关键路径。

要打造在日常生活中非常有用的产品,比如通用人工智能助理,需要推动一些能力的发展,比如规划、记忆和推理,这些能力对于我们实现通用人工智能是至关重要的。所以我认为现在产品和研究之间有一个非常好的反馈循环,它们可以有效地相互帮助。

Nilay:距离拥有AGI还有多少年?

Hassabis:我认为,在实现这个重大突破之前,还需要很多更小的突破,也存在很多不确定性。就时间框架而言,如果还需要很多突破,那就需要更长的时间。但如果我们能在未来十年内实现AGI或类似于AGI的技术,我不会感到惊讶。

Nilay:你所说的关键路径并不是一条直线,对吗?沿途会有一些突破,可能会让你沿着不同的道路前进。

Hassabis:是的,研究从来不是一条直线,如果是,那就不是真正的研究。

如果你在开始之前就知道答案,那就不是研究。研究总是处于前沿,其周围总是存在不确定性。这就是为什么你无法准确预测时间线。

但是,我们可以看它的趋势,看今天正在研究的想法和项目的质量,以及它们的进展情况。在未来的5到10年里,我们可能会走到一个渐近线,可能会在目前的技术和规模上碰壁。如果出现这种情况,我不会感到惊讶。因为我们将会发现,仅仅扩大现有人工智能系统的规模会导致系统性能的回报递减。实际上,这将是一个信号。我们确实需要一些新的创新来取得更大的进步。

目前,我认为没有人知道我们正处于哪个阶段。因此,答案就是你必须尽可能地推动现有系统和现有想法的扩展和工程化,同时大力投资于探索性研究方向,这些研究方向可能会带来创新,从而解决当前系统的一些弱点。作为一个拥有大量资源的大型研究机构,我们的一个优势就是可以最大限度地在这两个方向上都有所作为。

因此,我认为在某种程度上,我对“你是否需要更多的突破,或者现有的系统是否会一直扩展”这个问题持不可知论的态度。这是一个经验问题,我们应该尽可能地推动这两方面的发展,然后让结果说话。

5. 人工智能开源与闭源的得与失

Nilay:现在你在谷歌内部。作为一家公司,谷歌面临着赢得这场AI战争的巨大压力。

有一个据称从谷歌内部传出的备忘录被疯传。它说谷歌没有护城河。而且,开源的人工智能模型可以在人们的笔记本电脑上运行,开源社区的研发人员创造的结果最终将超越闭源的公司。这份备忘录是真的吗?

Hassabis:我认为是真的。谷歌的工程师们经常写各种文档,有时它们会被泄露并被疯传。

但我不会太当真。这些只是意见,听他们的意见很有趣,但你要去规划自己的路线。我没有详细读那份备忘录,但我不同意其中的结论。

我们显然相信开源,支持开放研究,这是科学的关键,谷歌发布了Transformer和其他的很多研究,我们在这一领域做了大量工作。

但我认为还需要考虑其他因素,包括商业方面和安全方面的问题。比如对这些功能强大的人工智能系统进行访问管理。如果坏人访问了它怎么办?如果他们掌握这些技术,并重新配置一个系统,你该如何应对这些事情?我认为到目前为止,这还只是理论可能,但这一点非常重要。

随着这些人工智能系统变得更通用、更复杂、更强大,AGI的目标总能达到。如何阻止坏人将这些强大系统用于恶意目的,做到他们本来做不到的事,是我们必须解决的问题。

但是,关于你的问题,看看谷歌和DeepMind在过去十年时间里所做的创新和突破。我会把赌注押在我们自己身上,而且非常有信心。因为我们会取得下一个关键突破,就像过去一直做到的那样。

Nilay:你认为这是护城河吗?你们过去取得了很多突破,所以你们要发明下一个最重要的东西。

Hassabis:我不知道这是不是护城河,但我是一个非常好胜的人,许多研究人员也具有这种特性,这帮助他们发现知识。

最终,我们的目的是改善人类的生存条件。同时,我们也想成为第一个做这些事情的人,我们负责任地、大胆地去做。

我认为我们拥有世界上最多的优秀研究人员,我们取得过令人难以置信的突破,我们没有理由不在未来继续这样做。

我认为我们的新组织和新环境可能有利于我们取得比过去更多、更快的突破。

6. AGI的监管需要国际性的规则和框架

Nilay:我们应该如何监管AI?你的决策框架是什么?我怀疑它可能比我听到的其他框架更严格。

Hassabis:我认为AI监管的总体方法更像是科学方法。我经历过博士和博士后的科学训练,学的是神经科学。它教会了我如何进行严格的假设检验和假设生成,然后根据经验证据进行更新。

我处理事情的方式是一开始就想好一个终极目标,想象出这个事情的最终形态。它的完美状态是什么样的?是组织上的完美,还是产品上的完美,抑或是研究上的完美?

然后我从终点开始往回想,找出需要采取的所有步骤,并按照顺序尽可能地实现这一结果。这有点像国际象棋。你想把对手将死,但你还有很多步棋要走。那么什么是渐进的事情呢?我们必须做的是改善局面,以增加实现最终结果的可能性。我发现从最终目标到当前状态的逆向搜索过程非常有用。

Nilay:美国、欧盟和中国都同意了一些监管人工智能的框架。但如果另一些国家却并不去监管,这就有可能会让坏人肆意妄为。这样的结果会怎样,你思考过这种可能性么?

Hassabis:是的,我认为这是一个可能发生的世界。这就是为什么我一直在和英国和欧盟的政府讨论。我认为,未来几年无论是AI的监管法规还是其他什么,它们最好是国际性的。围绕这些保障措施、人工智能系统部署的国际协议和其他事项,应该开展国际合作。

鉴于全球地缘政治的局势,我不知道这种可能性有多大。但这是迄今为止最好的状态。如果可以的话,我认为这也是我们应该追求的目标。

Nilay:如果政府们通过了国际监管规则。但是鉴于有开源模型的存在,人们在MacBook上就可以运行模型,那这些规则要怎么实施,才能真正影响到每个人?

Hassabis:这些都是现在争论的大问题。

我担心的是,一方面,开源有很多好处:加速了科学话语权,让很多开发者有机会使用并推动进步;另一方面,也可能会有一些负面影响。

如果有个别人利用这种访问权限干坏事并扩散,我认为这是未来几年需要解决的问题。现在,我认为没有问题,因为系统还没有那么复杂和强大,因此暂时没有那么大的风险。但我认为,随着人工智能系统的功能和通用性不断增强,如何控制或监控模型访问,将是政府需要考虑的重要问题。

现在我没有任何答案,因为我认为这是一个社会问题,需要整个社会的利益相关者走到一起,权衡利益和风险。

Nilay:你说我们还没有到那一步,但是谷歌自己在人工智能方面的工作肯定有一些与此相关的争议,围绕着模型能做什么或不能做什么的责任。你现在关于审查是什么想法?

Hassabis:我认为大语言模型既有准确的一面,也有不准确的部分,这是谷歌一直对它非常负责任原因之一。我认为在接下来的几年里,它的数据来源必须是基于事实的,并需要提高可控性,让它不传播有毒的信息。

我们有很多关于如何改进大语言模型的想法。“麻雀”模型是我们几年前发表的一项实验,实验内容是这些人工智能系统能达到多好的事实性和规则一致性。结果表明,我们或许可以将一致性提高一个数量级,但这有时会以牺牲大语言模型的准确度或创造性为代价,从而影响其实用性。

这有点像帕累托前沿(适道注:一种经济学概念),如果你提高了一个维度的能力,那另一个维度的能力就有可能降低。理想情况下,我们在下一阶段、下一代系统中要做的就是将两者结合起来。既保持当前系统的创造性、准确度和易用性,又提高它的真实性和可靠性。虽然我们还有很长的路要走,但我可以看到情况正在改善。

Nilay:你相信大语言模型说的话吗?

Hassabis:我有时会仔细检查一些东西,尤其是在科学领域。实际上所有大语言模型都会面对这个需求:总结一个研究领域。如果它们能做到这一点,我认为将是非常有用的。

我还会进一步提要求:我应该阅读哪些关键论文?然后它们就会提出一些看起来非常可信的论文和作者名单。但是,当你去检验它的输出结果时,有时却会发现它会将两篇不同论文的标题合并在一起。

我认为这些人工智能系统需要理解:引用、论文和作者是一个单元块,而不是一个字、一个字的预测。因此,我们需要改进这种情况。

这是一个特别有趣的用例,我们也希望为自己的需求进行改进和修复。我希望这些人工智能系统能更好地为我总结出某种疾病的前五篇论文,以便让我在那个特定领域快速上手,这将会非常有用。

Nilay:你们怎么防范模型崩溃?它通常是由大模型自己生成数据去训练模型引发的。

Hassabis:我们正在研究一些很酷的解决方案。我认为答案是,使用一种加密的步行者标记。复杂的步行者标记无法轻易去除,而且很可能内置于生成式大模型本身。

因此,这是生成过程的一部分。我们希望能够将其作为通用解决方案提供给第三方。行业需要这些类型的解决方案,我们可以在大模型生成的媒体(无论是图像、音频,还是文本)上标记某种标记,向用户和未来的人工智能系统表明这些是人工智能生成的。我认为,对于人工智能的近期问题,如Deepfake和虚假信息等,这是一个非常非常迫切的需求。但实际上,我认为现在已经有了解决方案。

7. 人类标注数据对人工智能是必须的吗?

Nilay:我们刚刚与《纽约》杂志合作发表了大篇幅报道,报道了那些为人工智能标注数据的人们。

好莱坞的编剧们现在正在罢工,因为他们不想让ChatGPT写一堆剧本代替他们。

但是,还有一类新的工作正在发展,就是人类为人工智能标注数据。这种数据标注工作是必须的么?还是说在未来这些工作会消失?

Hassabis:我认为针对现在这个时间点和当前的AI系统,他们的工作是被需要的。

那篇文章中引用了我们一些研究人员的话,我们非常负责地为这些劳动者支付工资,我对我们在此类合作中的负责态度感到非常自豪。

但展望未来,我认为这些人工智能系统可能有办法有效地自我引导。我们一直在思考强化学习系统,不同版本的强化学习系统实际上可以互相评分。

它可能不如人类标注员和评分员那么好,但也是一种有用的方法,可以低成本地进行一些简单的评分,最后人类评分员再检查和校准它。

我认为,有很多创新将有助于解决这个问题,并有可能意味着工作不需要全部由人类评分员来完成。

Nilay:但你认为总是需要人类评分员参与其中,对吗?甚至当接近AGI的时候,也需要人类来告诉AI它是否做得很好。

Hassabis:让我们以AlphaZero为例。我们的游戏系统,最后自己学会了如何玩游戏,包括国际象棋和围棋。

我们设置了人工智能系统,让它可以和自己对弈,持续数千万次。所以事实上,它建立了自己的知识库,从随机开始,自己和自己玩,自己引导自己,并互相对战。

但最后,你仍然希望与人类世界冠军进行测试,这样你就可以校准自己的指标。

根据不同的情况,人类评分者、人类基准、人类专家通常是校准内部测试的最佳对象。他们确保你的内部测试能够真正反映现实。

同样,对于研究人员来说,产品也是令人兴奋的,因为当你将研究成果投入到产品中,让数百万人每天使用时,就会得到真实世界的反馈。这是绕不过去的,这就是现实。这是对你所建立的任何理论或系统的最好检验。

Nilay:为人工智能系统标注数据,你认为这样的工作有意义吗?就像我要告诉计算机如何理解这个世界,这样它就可以在未来取代其他人。这里面有一个循环,似乎更值得道德或哲学上的思考。你花时间思考过这个问题吗?

Hassabis:是的,我确实想过这个问题。但我并不认为这个工作是人类帮助人工智能在未来取代自己。我理解,人类评分员所做的事情是使人工智能系统更安全、对每个人更有用、更有帮助并成为更可靠的开发周期的一部分。

因此,我认为这是一个至关重要的组成部分。在许多行业,我们对技术和产品进行安全测试。人工标注和评分,是我们能为人工智能系统做的最好的事情。我认为在未来,我们仍然需要人类评分员。

未来几年,我们需要更多的研究。我们自己在这样做,但这不仅仅需要一个组织来做。我们需要强有力的人工智能能力评估基准,希望如果一个人工智能系统通过了这些基准,那么它在这些特定方面是安全可靠的。

现在,我们与学术界、开源社区和其他领域的众多研究人员一起做这件事,他们对这些测试有很多好的建议。但我认为现有的人工智能测试系统还不够强大和实用,它基本上是理论性和哲学性的。它需要更实用化,这样我们就可以用它对人工智能系统进行实证测试,从而为人工智能系统的性能和安全性提供一些保证。

本文由适道(ID:survivalbiz)原创,如需转载可移至公众号留言。

关键词: