从左至右为:拉姆曼·乔杜里(Rummann Chowdhury)、阿里·戈德西(Ali Ghodsi)和李飞飞(Fei-Fei Li)。图片来源:COURTESY OF RUMMANN CHOWDHURY; DATABRICKS; MATT WINKELMEYER—GETTY IMAGES FOR WIRED25
就像一艘满载外星人的宇宙飞船降落在地球上一样,人工智能技术横空出世,瞬间改变了一切。
(资料图片)
从人工智能生成音乐(能够惟妙惟肖地模仿你最喜欢的歌手)到虚拟恋人,人工智能技术令人着迷,却也令人害怕,同时越来越容易获得。
各大企业迅速向这项技术注入了资金。除了微软(Microsoft)斥130亿美元巨资投资ChatGPT开发商OpenAI之外,Anthropic、Cohere、Adept AI、Character.AI和Runway等初创公司在最近几个月里也分别筹集了数亿美元。
正如许多科技企业,人工智能创新项目负责人与技术本身一样,都是故事的核心。今天的人工智能创新者并不像科技行业的名流那样为人所熟知,但由于他们的工作,这些计算机科学家和技术专家的影响力正迅速扩大。
鉴于他们的工作对社会影响深远,而且可能带来潜在风险,这些人工智能创新者中的许多人强烈坚持自己的观点(涉及该技术的未来、力量及其危险性),而他们的观点往往互相冲突。
通过了解他们的工作和观点,《财富》杂志对部分制定人工智能议程的关键人物进行了调查。有些人在大公司工作,有些人在初创公司工作,有些人在学术界工作;一些人已经在人工智能的特定分支领域耕耘多年,而另一些人则是新近加入的。如果说他们有什么共同点的话,那就是他们能力非凡,能够改变这项强大的技术影响世界的方式。以下介绍当今最重要的13位人工智能创新者,排名不分先后。
丹妮拉·阿莫迪(Daniela Amodei)
Anthropic联合创始人
图片来源:COURTESY OF ANTHROPIC
“鉴于人工智能的潜在影响范围,它在很大程度上仍不受监管,这让我有点震惊。”
据报道,丹妮拉·阿莫迪和她的兄长达里奥于2020年年底辞去了在OpenAI的工作,共同创立了Anthropic,据称是担心OpenAI与微软的合作会增加压力,导致OpenAI以牺牲安全协议为代价快速发布产品。
该公司的聊天机器人克劳德Claude与OpenAI的ChatGPT类似,但采用了一种被称为“宪法人工智能”(constitutional AI)的技术进行训练。据该公司称,该技术设定了一些原则,比如选择“种族主义和性别歧视倾向最不严重”的回答,并鼓励人们坚持生命至上和追求自由。这种方法是基于35岁的阿莫迪所说的Anthropic人工智能研究的3H框架(helpful, honest, and harmless三词的首字母缩写):有益、真诚和无害。
“鉴于人工智能的潜在影响范围,它在很大程度上仍不受监管,这让我有点震惊。”阿莫迪在去年的一次采访中说。她希望制定相关标准的组织、行业团体和行业协会能够介入,并就安全模型提供指导。“我们需要所有参与者共同努力,以取得积极成果(这是我们的共同愿望)。”
除了为聊天机器人Claude开发“下一代算法”外,Anthropic一直竭力筹集资金。最近,该公司从谷歌(Google)、赛富时(Salesforce)和Zoom Ventures等支持者那里筹集了4.5亿美元(值得注意的是,Anthropic此前筹集的5.8亿美元资金是由声名狼藉的加密货币企业家萨姆·班克曼-弗里德的Alameda Research Ventures领投的。Anthropic尚未表示是否会退还这笔资金)。
杨立昆(Yann LeCun)
Meta首席人工智能科学家
图片来源:MARLENE AWAAD—BLOOMBERG/GETTY IMAGES
“即将到来的人工智能系统将增强人类智力,就像机械机器能放大体能一样。它们不会成为替代品。”
出生于法国的杨立昆在一场即将举行的辩论预演赛中表示:“关于人工智能引发的末日预言只不过是一种新形式的蒙昧主义。”在这场辩论中,他将与麻省理工学院(MIT)的一名研究人员就人工智能是否会对人类构成生存威胁展开辩论。
62岁的杨立昆直言不讳地表示,人工智能有助于增强人类的智力。他是公认的神经网络领域的主要专家之一,该领域的研究使得计算机视觉和语音识别取得了突破。他从事被称为卷积神经网络的基础神经网络设计方面的工作,拓宽了神经网络视角,使得他与深度学习先驱杰夫里·辛顿和约书亚·本吉奥于2018年共同获得了有“计算机科学界的诺贝尔奖”之称的图灵奖。
毋庸讳言,杨立昆并不是200多名公开信联署签名者之一。联署签名者最近在公开信中警告称,人工智能对人类构成了灭绝级风险。
长期担任纽约大学(New York University)计算机科学教授的杨立昆于2013年加入脸书(现为Meta),目前负责这家市值7000亿美元的公司的各类人工智能项目。这并没有让他参与辩论的兴趣减退,他还会参与人工智能相关的重大辩论,比如人们担忧该技术将夺走他们的工作。在马丁·福特2018年出版的《智能建筑师:从构建人工智能的人那里了解人工智能的真相》(Architects of Intelligence: The Truth About AI from the People Building it)一书的问答中,杨立昆对辛顿的一大著名预测提出了异议,例如,辛顿认为由于人工智能的出现,放射科医生将失去工作,相反,他解释说这将使放射科医生有更多时间与病人进行沟通。他接着说,他认为一些活动将变得更加昂贵,比如在餐厅吃饭(服务员端来由人类厨师准备的食物)。他对福特说:“事物的价值将发生变化,在评估价值时,人们更重视人类经验,而不是实现自动化的事物。”
戴维·栾(David Luan)
Adept首席执行官兼联合创始人
图片来源:COURTESY OF ADEPT
“人工智能的发展速度是惊人的。首先是文本生成,然后是图像生成,如今是计算机应用。”
在2022年联合创立Adept之前,栾曾在一些最重要的人工智能公司工作,包括OpenAI和谷歌(他还曾在Axom公司短暂担任过人工智能总监,该公司是泰瑟枪和警用随身摄像机的制造商)。他说,人工智能当前的时刻是他最兴奋的时刻。“我们已经进入了人工智能的工业化时代。现在是时候建立工厂了。”栾在今年早些时候的脑谷人工智能峰会(Cerebral Valley A.I. Summit)上说。
Adept的理念是为人们提供“人工智能队友”,它可以通过几个简单的文本命令来执行计算机辅助任务。例如,在电子表格中建立财务模型。今年3月,该公司融资3.5亿美元,《福布斯》将其估值定为10亿美元以上。
31岁的栾说,他花了很多时间思考人们普遍担忧的问题:人工智能是否可能取代人类工作,但对于“知识工作者”——像Adept这样的生成式人工智能工具所关注的客户——来说,这种担忧被夸大了。栾在脑谷人工智能峰会上表示:“你不再需要每周花30个小时更新赛富时客户关系管理平台记录,而是每周花1%的时间让Adept为你做这些事情,而你花99%的时间与客户交谈。”
埃马德·莫斯塔克(Emad Mostaque)
Stability AI首席执行官
2022年12月,Stability AI创始人兼首席执行官埃马德·莫斯塔克出席《财富》杂志人工智能头脑风暴大会。图片来源:NICK OTTO FOR FORTUNE
“如果我们拥有比自身更有能力,却无法控制的代理,它们在互联网上进行互联,并实现了一定程度的自动化,这意味着什么?”
莫斯塔克出生于约旦,但在孟加拉国和英国长大,2005年在牛津大学获得计算机科学学士学位。据《纽约时报》报道,在2020年创立Stability AI之前,他在对冲基金工作了十多年。在金融业的工作经历似乎为他创办Stability AI奠定了良好基础。据报道,他自己出资创办了这家公司,后来又获得了Coatue和光速创投基金(Lightspeed Venture Partners)等投资机构的投资。
该公司帮助创建了文本到图像的 “稳定扩散” 模型(Stable Diffusion),该模型被用来生成图像,但在生成过程中极少考虑是否构成知识产权侵权,或人们对暴力内容的担忧(与其他一些人工智能工具一样,该产品也因放大种族和性别偏见而受到批评)。对于莫斯塔克来说,首要任务是保持模型开源,而且不设置限制模型生成内容的护栏——尽管为了使Stability的人工智能更具商业吸引力,他后来确实用过滤掉色情图片的数据集训练出一版“稳定扩散” 模型。“我们信任用户,我们也信任社区。”他告诉《纽约时报》。
这种态度(以及指控莫斯塔克夸大了他的部分成就,正如《福布斯》最近详细报道的那样)引起了人工智能界其他人士、政府官员和盖蒂图片社(Getty Images)等公司的强烈反对,后者在2月份起诉Stability AI侵犯版权,声称该公司在未经许可的情况下复制了1200万张图像来训练其人工智能模型。
然而,Stability AI的工具已经成为生成式人工智能领域最受欢迎和最知名的代表之一。现年40岁、工作地在伦敦的莫斯塔克很难被归类。今年3月,他和其他人签署了一封公开信,呼吁暂停开发比OpenAI的人工智能聊天机器人GPT-4更高级的人工智能。他对人工智能发展的看法似乎走向两个极端:他最近评论说,在最糟糕的情况下,人工智能可以控制人类,而在另一个场合,他又表示,人工智能不会对人类感兴趣。
“因为我们想象不到有什么事物比我们更有能力,但我们都知道有人比我们更有能力。所以,我个人的看法是,这种情况会像斯嘉丽·约翰逊和杰昆·菲尼克斯主演的电影《她》(Her)那样:人类有点无聊,所以人工智能会说:‘再见’、‘你有点无聊’。”
李飞飞
斯坦福大学以人为本人工智能研究院联合主任
图片来源:DAVID PAUL MORRIS—BLOOMBERG/GETTY IMAGES
“能生在这个历史时代,投身这项技术,我仍感觉很超现实。”
当李飞飞16岁随家人从中国移民到美国时,她说自己必须从头开始学习英语,同时还要努力取得好成绩。如今,这位斯坦福大学以人为本人工智能研究院(Institute for Human-Centered AI)联合主任被认为是人工智能伦理应用方面的领军人物之一。她写过《如何制造对人类有益的人工智能》(How to make AI that good for people)等文章,她还是人工智能多元化的倡导者。
她在职业生涯早期建立了ImageNet,这是一个大型数据集,为深度学习和人工智能的发展做出了贡献。如今,在斯坦福大学,她一直在研究“环境智能”,即利用人工智能来监测家庭和医院的活动。在去年12月举行的《财富》杂志人工智能头脑风暴大会上,她讨论了自己的工作,以及偏见为何是需要考虑的关键因素。
“我在医疗保健领域做了很多工作。显而易见的是,如果我们的数据来自特定人群或社会经济阶层,将产生相当深远的潜在影响。”她说。
据47岁的李飞飞说,斯坦福大学现在对人工智能研究项目进行伦理和社会审查。“这让我们思考如何设计才能在技术中体现公平、隐私意识,以及人类福祉和尊严。”
为了提升人工智能领域的包容性,李飞飞与他人共同创立了一个名为“AI4ALL”的非营利组织,旨在促进人工智能教育多元化发展。
李飞飞职业生涯中的一大争议事件发生在她在谷歌云(Google Cloud)担任人工智能/机器学习首席科学家期间:2018年,谷歌签署了合约,向美国国防部提供人工智能技术支持,这在一些员工中引发争议。虽然合约不是李飞飞签署的,但批评者认为她与之有关联——尤其是她在泄露的电子邮件中关于如何向公众描述合约的一些评论——与她作为人工智能伦理倡导者相矛盾。
阿里·戈德西(Ali Ghodsi)
Databricks首席执行官
图片来源:COURTESY OF DATABRICKS
“我们应该拥抱人工智能技术,因为它会一直存在。我确实认为它将改变一切,而且产生的影响大都是积极的。”
阿里·戈德西横跨学术界和商界,他是加州大学伯克利分校(UC Berkeley)的兼职教授,同时也是Databricks的联合创始人兼首席执行官。这位瑞典-伊朗双重国籍技术高管的一大核心原则是他对开源开发的承诺。
戈德西在开源数据处理工具Apache Spark上的工作为Databricks奠定了基础,该公司的估值为380亿美元。今年4月,Databricks发布了ChatGPT的开源竞争对手Dolly 2.0,它使用的问答指令集完全是由Databricks的5000名员工之间的互动创建的。这意味着任何公司都可以将Dolly 2.0嵌入到自己的商业产品和服务中,而不受使用上限的限制。
Dolly与其说是可行的产品,不如说是概念证明——该模型容易出错、产生幻觉和生成有毒的内容。然而,Dolly的重要性在于,它表明人工智能模型可以比支撑OpenAI的ChatGPT或Anthropic的Claude的大型专有语言模型小得多,训练和运行成本也更低。戈德西为Dolly的自由度和可及性作了辩解。“我们致力于安全而负责任地开发人工智能,通过开放像Dolly这样的模型供社区合作,我们坚信自己正朝着正确的方向发展(在人工智能行业中)。”
虽然现在生成式人工智能得到了很多关注,但45岁的戈德西认为,其他类型的人工智能,尤其是用于数据分析的人工智能,将对各行业产生深远影响。今年3月,他对《财富》杂志表示:“我认为这只是一个开始,在人工智能和数据分析能够发挥的作用方面,我们的研究还有待深入。
山姆·阿尔特曼(Sam Altman)
OpenAI首席执行官
图片来源:ERIC LEE—BLOOMBERG/GETTY IMAGES
“如果有人真的破解了代码,并研发出超级人工智能(不管你希望如何定义它),可能制定一些全球性规则是合乎情理的。”
出于对谷歌将变得过于强大并控制人工智能的担忧,阿尔特曼于2015年与埃隆·马斯克、伊利亚·苏茨克沃和格雷格·布罗克曼一起创立了OpenAI。
从那时起,OpenAI已经成为人工智能领域最具影响力的公司之一,并成为“生成式人工智能”的领头羊:该公司的ChatGPT是史上增长最快的应用程序,仅在推出的两个月内就成功吸引了超过1亿月度活跃用户。DALL-E 2是OpenAI的另一款产品,是最受欢迎的文本到图像生成器之一,能够生成具有阴影、明暗和反射景深效果的高分辨率图像。
虽然他不是人工智能研究人员,也不是计算机科学家,但38岁的阿尔特曼将这些工具视为他与该领域其他人共同完成使命的垫脚石:开发被称为通用人工智能(AGI)的计算机超级人工智能。他认为,“通用人工智能可能是人类生存的必要条件”,但他表示,在实现这一目标的过程中,他会保持谨慎。
对通用人工智能的追求并没有让阿尔特曼对风险视而不见:他是联名签署人工智能安全中心(Center for AI safety)关于人工智能对人类威胁的警告的公开信的知名人士之一。在5月中旬举行的美国参议员听证会上,阿尔特曼呼吁对人工智能进行监管,他说,应制定规则来鼓励企业进行安全开发,“同时确保人们能够获得这项技术的好处”。(一些批评者猜测,他所呼吁的监管也可能给OpenAI越来越多的开源竞争对手造成障碍。)
据《财富》杂志的杰里米·卡恩介绍,阿尔特曼曾是创业孵化器Y Combinator的总裁,擅长融资。这一诀窍似乎带来了巨大的回报:OpenAI与微软达成了130亿美元的合作。
虽然马斯克已辞去OpenAI的董事会职务,而且据报道,他正在成立一个与OpenAI竞争的人工智能实验室,但阿尔特曼仍然把他视为自己的导师,称马斯克教会他如何在“艰苦研发和硬技术”上突破极限。然而,他并不计划跟随马斯克前往火星:“我不想去火星生活,这听起来很可怕。但我对其他人想去火星生活感到高兴。”
玛格丽特•米切尔(Margaret Mitchell)
Hugging Face首席伦理科学家
图片来源:COURTESY OF CLARE MCGREGOR/PARTNERSHIP ON AI
“人们表示或是认为,‘你不会编程,不懂统计学,你无足轻重。’令人遗憾的是,通常直到我开始谈论技术上的事情,人们才会认真对待我。机器学习领域(ML)存在巨大的文化障碍。”
玛格丽特·米切尔对人工智能偏见的兴趣始于在微软工作期间发生的几件令人不安的事情。例如,她在去年的一次采访中回忆说,她处理的数据[用于训练该公司的图像注释软件“看见图片”(Seeing AI)人工智能辅助技术]对种族的描述非常诡异。还有一次,她在系统中输入了爆炸图像,输出结果将残骸描述为美丽的。
她意识到,仅仅让人工智能系统在基准测试中表现优异,并不能满足她。她说:“我想从根本上改变我们看待这些问题的方式、处理和分析数据的方式、评估的方式,以及在这些直接流程中遗漏的所有因素。”
这一使命是有个人代价的。米切尔在2021年登上头条新闻,当时谷歌解雇了她和蒂米特·格布鲁(二人是该公司人工智能伦理部门的联合负责人)。两人发表了一篇论文,详述了大型语言模型的风险,包括环境成本以及将种族主义和性别歧视语言纳入训练数据。他们还直言不讳地批评谷歌在促进多样性和包容性方面做得不够,并就公司政策与管理层发生冲突。
米切尔和格布鲁已经在人工智能伦理领域取得了重大突破,比如与其他多名研究人员就所谓的“模型卡”(model cards)发表了一篇论文(通过提供记录性能、识别局限性和偏见的方法,鼓励提高模型的透明度)。
米切尔在离开谷歌后加入机器学习技术开源平台提供商Hugging Face,她一直在埋头苦干,深入研究辅助技术和深度学习,并专注于编码,以帮助建立人工智能伦理研究和包容性招聘等事项的协议。
米切尔说,尽管她的背景是研究人员和科学家,但她对道德的关注让人们认为她不知道如何编程。米切尔去年在“拥抱脸”的博客上说:“令人遗憾的是,通常直到我开始谈论技术上的事情,人们才会认真对待我。”
穆斯塔法•苏莱曼(Mustafa Suleyman)
Inflection AI联合创始人兼首席执行官
图片来源:MARLENE AWAAD—BLOOMBERG/GETTY IMAGES
“毫无疑问,未来5到10年,白领阶层的许多工作将发生重大变化。”
苏莱曼被朋友和同事称为“穆斯”(Moose),他曾在谷歌担任人工智能产品和人工智能政策副总裁,并与他人共同创立了研究实验室DeepMind,该实验室于2014年被谷歌收购。离开谷歌后,苏莱曼曾在风投公司Greylock工作,并创办了一家名为Inflection AI的机器学习初创公司。
本月早些时候,Inflection发布了第一款产品,一款名为Pi的聊天机器人,代表“个人智能”。当前版本的机器人可以记住与用户的对话,并提供有同理心的回答。苏莱曼说,最终,它将能够充当个人“办公室主任”,可以预订餐厅和处理其他日常任务。
38岁的苏莱曼对我们将开始使用何种语言与计算机互动热情高涨。他在《连线》杂志上写道,总有一天,我们将“与所有设备进行真正流畅的对话式交互”,这将重新定义人机交互。
在苏莱曼的设想中,未来人工智能将使白领工作发生重大变化,他还发现了人工智能在应对重大挑战方面的潜力。关于后者,他认为该技术可以降低住房和基础设施材料的成本,并能够帮助分配清洁水等资源。尽管如此,他还是主张避免在此过程中造成伤害,他2018年在《经济学人》中撰文警告说:
“从无人机面部识别的普及到有偏见的预测性警务,风险在于,在技术优势的竞争中,个人和集体权利被抛在了一边。”
莎拉•胡克(Sara Hooker)
Cohere For AI总监
图片来源:COURTESY OF COHERE FOR AI
“我认为真正重要的一点是,我们需要完善追溯体系,尤其是当你考虑到人工智能在生成错误信息或可能被用于邪恶目的的文本方面的能力时。”
萨拉·胡克曾是谷歌大脑(Google Brain)的研究员,去年她加入了多伦多一家由谷歌大脑校友创立的致力于研究超语言模型的初创公司Cohere,并与前同事团聚。此次重聚保持了一定距离——胡克正在领导一个名为Cohere for AI的非营利性人工智能研究实验室,该实验室由Cohere资助,但独立运作。
Cohere for AI旨在“解决复杂的机器学习问题”。在实践中,这意味着从发布研究论文以提高大型语言模型的安全性和效率,到启动实施学者计划(Scholars Program,该计划旨在通过从世界各地招募人才,扩大人工智能领域的人才库)。
入选学者计划的条件之一是之前没有发表过关于机器学习的研究论文。
胡克说:“当我谈到改善地域代表性时,人们认为这是我们承担的成本。他们认为我们在牺牲已经取得的进步。但事实完全相反。”胡克更了解相关情况。她在非洲长大,并帮助谷歌在加纳成立了研究实验室。
胡克还力图提升机器学习模型和算法的准确性和可解释性。最近在接受《全球新闻网》(Global News)采访时,胡克分享了她对“模型可追溯性”的看法,即追踪文本何时由模型而不是人类生成,以及应该如何进行改进。她说:“我认为真正重要的一点是,我们需要完善追溯体系,尤其是当你考虑到人工智能在生成错误信息或可能被用于邪恶目的的文本方面的能力时。”
由于Cohere最近从英伟达(Nvidia)、甲骨文(Oracle)和Salesforce Ventures那里筹集了2.7亿美元的资金,胡克的非营利实验室与一家拥有知名支持者的初创公司强强联手。
拉姆曼·乔杜里(Rummann Chowdhury)
Parity Consulting科学家
哈佛大学伯克曼·克莱因中心负责任的人工智能研究员
图片来源:COURTESY OF RUMMAN CHOWDHURY
“很少有人提出这样的基本问题:人工智能本身应该存在吗?”
乔杜里在人工智能领域的职业生涯始于埃森哲(Accenture)负责任人工智能部门的负责人,她负责设计一种算法工具,用于识别和减少人工智能系统的偏见。她离职后创立了一家名为Parity AI的算法审计公司,该公司后来被推特(Twitter)收购。在那里,她领导了机器学习伦理、透明度和问责团队(这是一个由研究人员和工程师组成的团队,致力于减轻社交平台上算法带来的危害),她说,在埃隆·马斯克收购推特后,这项工作变得很有挑战性。
在8月举行的DEF CON 31网络安全大会上,一群顶级人工智能开发者得到白宫的支持(她在其中起到了带头作用),将举办一场生成式人工智能“红队”测试活动,旨在通过评估Anthropic、谷歌、Hugging Face、OpenAI等公司的模型的异常和局限性来提高安全性。
作为监管方面的另一位人工智能专家,43岁的乔杜里最近在《连线》杂志上写道,应该建立生成式人工智能全球管理机构。她以脸书的监督委员会为例,说明该组织应如何组建。该委员会是一个跨学科的全球组织,专注于问责制。
乔杜里写道:“像这样的组织应该像国际原子能机构(IAEA)一样,持续通过专家咨询和合作来巩固其地位,而不是为其他从事全职工作的人提供副业。像脸书监督委员会一样,它应该接受来自行业的咨询意见和指导,但也有能力独立做出有约束力的决定,而各大公司必须遵守这些决定。”
她还推动在产品开发过程中进行她所谓的综合偏见评估和审计,这将允许对已经研发出的事物进行检查,但也可以在早期阶段就建立相关机制,以决定某些事物是否应该通过创意阶段的评估而走向下一阶段。
“很少有人提出这样的基本问题:人工智能本身应该存在吗?”她在一次关于负责任的人工智能的小组讨论中说。
克里斯托瓦尔·巴伦苏埃拉(Cristóbal Valenzuela)
Runway ML联合创始人兼首席执行官
图片来源:COURTESY OF RUNWAY
“生成艺术的历史并不是始于近期。在最近的人工智能热潮之外,在艺术创作过程中引入自主系统的想法已经存在了几十年。不同的是,现在我们正在进入人工合成时代。”
巴伦苏埃拉通过艺术家兼程序员吉恩·科根的作品了解了神经网络后,进入了人工智能领域。他对人工智能如此着迷,以至于离开智利的家,成为纽约大学Tisch互动电信项目的一名研究员。
当时他致力于让艺术家能够使用机器学习模型,正是在那里,他萌生了创办Runway的想法。他在接受云计算公司Paperspace采访时表示:“我开始围绕这个问题进行头脑风暴,然后我意识到,‘模特表演平台’已经有了一个名字:伸展台。”
虽然许多艺术家已经接受了人工智能,使用像Runway这样的工具在电影中制作视觉效果或照片,但33岁的巴伦苏埃拉希望更多的艺术家能拥抱人工智能。
因此,该公司帮助开发了文本到图像的 “稳定扩散”模型。它还凭借其人工智能视频编辑模型Gen-1取得了惊人成就,该模型可以改进用户提供的现有视频。Gen-2于今年春天推出,为用户提供了从文本生成视频的机会。考虑到像Weezer这样的娱乐公司利用Runway的模型为摇滚乐队制作巡回宣传视频,另一位艺术家使用Runway的模型制作了一部短片,像Runway这样的工具因有可能改变好莱坞的电影制作方式而引发热潮。
在与麻省理工学院的一次谈话中,他说该公司正在努力帮助艺术家找到他们作品的用例,并向他们保证他们的工作不会被夺走。他还认为,尽管我们没有意识到,但在许多情况下,我们已经在使用人工智能进行艺术创作,因为用iPhone拍摄的一张照片可能涉及利用多个神经网络来优化图像。
“这只是另一种技术,它将帮助你更好地进行创作,更好地表达想法。”他说。
丹米斯·哈撒比斯(Demis Hassabis)
谷歌DeepMind首席执行官
图片来源:COURTESY OF GOOGLE DEEPMIND
“在DeepMind,我们与其他团队有很大不同,因为我们专注于实现通用人工智能这一登月计划目标。我们围绕一个长期路线图进行筹备(即我们基于神经科学的论文,其中讨论了什么是智能,以及达到目标需要完成哪些工作)。”
哈萨比斯拥有伦敦大学学院(University College London)的认知神经科学博士学位,十多年前,他与他人共同创立了神经网络初创公司DeepMind,引起了轰动。该公司旨在建立强大的计算机网络,模仿人类大脑的工作方式(于2014年被谷歌收购)。今年4月,在这家互联网巨头的所有人工智能团队进行重组后,哈萨比斯接管了谷歌的整体人工智能工作。
哈萨比斯说,他对国际象棋的热爱使他进入了编程领域。这位前国际象棋神童甚至用国际象棋锦标赛的奖金买了他的第一台电脑。现在,他将象棋比赛要求的解决问题和规划能力以及他的神经科学背景运用到人工智能工作中,他相信人工智能将是“对人类最有益的事情”。
他认为,通用人工智能可能在十年内实现,并将DeepMind描述为受神经科学启发的人工智能,是解决有关大脑复杂问题的最佳途径之一。他告诉福特:“我们可以开始揭开某些深奥的大脑之谜,比如意识、创造力和做梦的本质。”当谈到机器意识是否可能实现时,他说他对此持开放态度,但认为“结果很可能是,生物系统有一些特殊的东西”是机器无法比拟的。
2016年,DeepMind的人工智能系统AlphaGo在一场5局3胜制的比赛中击败了世界顶级人类棋手李世石(Lee Sedol)。有2亿多人在线观看了这场比赛。(在围棋比赛中,双方棋手将棋子放在19路乘19路的棋盘上进行比赛。)李世石败给AlphaGo尤其令人震惊,因为专家们说,人们料想这样的结果在未来十年内都不会出现。
这样的时刻让DeepMind成为了通用人工智能的领军人物。但并非所有游戏都是如此。AlphaFold 2人工智能系统(DeepMind是该系统的幕后推手)预测了几乎所有已知蛋白质的三维结构。DeepMind已经在一个公共数据库中提供了这些预测结果。这一发现可能会加速药物研发,哈萨比斯和高级研究科学家约翰·江珀(John Jumper)也因此赢得了300万美元的生命科学突破奖。哈萨比斯还与他人共同创立并经营着一家Alphabet旗下的新公司Isomorphic Labs,致力于利用人工智能助力药物研发。(财富中文网)
译者:中慧言-王芳
关键词: