>首页> IT >

Transformer出逃八子最后一人正式创业!坐标日本搞AI集群模型

时间:2023-08-20 11:25:49       来源:腾讯网

萧箫 发自 凹非寺


(资料图)

量子位 | 公众号 QbitAI

谷歌经典Transformer论文8位作者的最后一位,创业去向已定!

新公司base东京,目标是做一家“世界级人工智能研究室”,目前已知的创始成员有两位,Transformer作者Llion Jones和另一位谷歌前同事。

Llion Jones表示,虽然对谷歌没有恶意,但这家公司确实让他有“被困住的感觉”:

谷歌已经发展到了一种规模,让我觉得在里面我什么都做不了。

我发现自己总在找各种软件出bug的原因,以及这个bug是谁写的……这极大地分散了我研究的注意力。

此次出来创业,AI圈全是祝福声,从英伟达高级AI科学家Jim Fan到也从谷歌离职创业的高产研究员Yi Tay,都在线表示了自己的祝福。

有网友羡慕称:这正是我想做的那种研究!

所以,Llion Jones创办的新公司究竟要做什么,在创办新公司之前他又有哪些值得一提的研究?

Transformer八子最后一人出走

创业之前,Llion Jones在谷歌已经干了8年。

他本硕毕业于伯明翰大学,在Delcam、油管、谷歌都工作过,谷歌是他待得最久的一家公司。

据FourWeekMBA介绍称,在他之前的工作经历中,“曾两度与谷歌的工作擦肩而过”。

第一次是他刚毕业找工作时,虽然投了谷歌伦敦软件工程师的简历,并通过了两轮电话面试,但最终相比谷歌,他选择了位于英国的CAD/CAM软件公司Delcam。

第二次是工作18个月后,他又接到了谷歌的招聘电话,询问他是否想重新申请,但他依旧没去谷歌,而是随后加入了YouTube。

在Youtube做三年软件工程师期间,他对人工智能产生兴趣,自学了Coursera的机器学习课程,并终于在2015年的时候加入谷歌研究院,担任里面的高级软件工程师。

也正是在此期间,他与其他七名作者一起发表了那篇著名的Transformer论文Attention Is All You Need

这篇论文如今已经成为大部分大模型的“奠基研究”,引用次数达到8.5w+。

随后,Llion Jones还与其他研究人员一起,发表了名为Natural Questions: A Benchmark for Question Answering Research的一篇论文。

这篇论文提出了第一个公开可用的自然语言问答数据集,这些语料由谷歌搜索引擎收到的查询问题构成,一共有30多万个样本。

目前,这篇论文的引用已经达到1300+次。

除此之外,Llion Jones也在谷歌参与了不少研究,包括ProtTrans、Tensor2Tensor等。

之所以选择离开谷歌,是因为公司目前已经发展到一种规模,使得他无法继续进行自己想做的工作。

除了每天都在浪费精力排查其他人的bug,他还需要花时间从这家公司中找资源,试图获得访问某些数据的权限。据彭博社采访Llion Jones称:

遗憾的是,我确实感到自己在谷歌之外(的事情中)干活效率更高。

因此,在这家互联网巨头工作多年后,他意识到自己还是想做一家初创公司,而不是离职加入OpenAI等其他AI公司。

毕竟在Llion Jones眼中,OpenAI从微软和其他投资者那里筹集了数十亿美元后,现在正在靠近谷歌这样的互联网巨头,其创新力同样正在减弱。

目前Llion Jones在东京已有一段时间,在领英上可以看见,他还给自己起了个日文名ライオン(狮子),也和英文名发音有所对应。

所以,这个在日本的新公司究竟要做什么?

新公司要做“AI集群”

这个新公司名叫sakana.ai,其中sakana是日语“魚”(さかな)的罗马读音。

顾名思义,sakana.ai在做的事情也像“鱼群”一样:

大自然中的鱼会基于某种简单的规则成群活动。因此,AI们也能借鉴它们的思想,无需更大的体积就能完成很复杂的任务。

具体来说,公司计划开发一种基于自然启发智能(nature-inspired intelligence)的基础模型,借鉴自然领域中的“进化”和“集体智慧”思想,让一群AI协作,类似于当前AI领域的生物启发计算方向。

据《金融时报》介绍称,Llion Jones认为,当前的AI模型之所以存在局限性,是因为它们被设计成无法改变的结构,这种结构往往是脆弱的。

相比之下,发挥“集体智慧”的自然系统,对于周围的变化非常敏感。基于此原理搭建的AI也会具有更好的安全性、更低的搭建成本。

虽然目前模型还没有搭建起来,不过或许可以从两位前谷歌研究员在2021年的共同研究找到一点参考信息:

这篇研究提出了一种叫做AttentionNeuron的网络层,可以将每个输入通道连接到一个独立的神经网络模块,通过注意力机制交流信息。

这样即使输入顺序被随机打乱,网络输出也是已知的,具有良好的鲁棒性。

在自动驾驶环境CarRacing中测试表明,AttentionNeuron即使没学习过环境内容,也可以实现一定程度上的自动驾驶,表现出一定的泛化能力。

这种AI具体如何落地应用?

一方面,这类AI也能像大模型一样,用于生成文本、图像、代码等多个模态的内容;

另一方面,它也能给ChatGPT这样的产品提供支持、协同更多大模型产品工作,实现能力上的“无缝衔接”。

目前,sakana.ai已经建立了官网,上面有一小段话的介绍,表示新公司将位于日本东京,“要做一个世界级的AI研究实验室”。

之所以选择东京,是因为北美那边的生成式AI研究人员竞争非常激烈(手动狗头),但在日本这边也能找到一些高质量AI人才。

公司融资情况目前尚未透露,毕竟办公室还没搭起来。

不过据CNBC透露,sakana.ai目前已经从学术圈聘请了一名兼职研究员,未来还将招揽更多人才。

One More Thing

其实,“Transformer八子”全部离职,今年7月已有征兆。

虽然Llion Jones的领英显示,他在谷歌干到了今年8月:

不过就在7月份,论文Attention Is All You Need悄悄更新过一版arXiv,8名作者的邮箱(包括Llion Jones的谷歌邮箱)已经全部被划掉了:

(8月份这篇论文又更新了一版,所有邮箱都被加了回来)

至少在一个月前,8人全部离职创业的念头就已经尘埃落定了。

关键词: