>首页> IT >

今日精选:AI时代,军事教科书已经在重写了

时间:2023-07-07 11:26:33       来源:腾讯网

War, War never changes。这是角色扮演类游戏《辐射》系列中一句著名台词,“战争,战争永远不会改变。”

自人类诞生以来,我们就在以最大的热情追寻着最高效地摧毁其他人类的手段。恩格斯有一句谶语:“一旦技术上的进步可以用于军事目的并且已经用于军事目的,它们便立刻几乎强制地,而且往往是违反指挥官的意志地引起作战方式上的改变甚至变革。”


(资料图片仅供参考)

而AI作为这个时代最重要的科技突破之一,当然也逃不出这个魔咒。

时至今日,距离ChatGPT引发的AI大讨论已经过去两个多月,热情褪去之后,无数AI应用正在世界各地悄然萌芽,而AI改变世界的进程才刚刚开始。接下来一段时间我将会用4到5期的篇幅,讲述AI在几个重要领域的应用,这期就先让我们来聊军事领域。

AI是一种瞎眼可见的军民两用技术。

AI的早期研制和发展与因特网、机器人、计算机极其类似,就是一种由军方垫付前期发展成本然后开花结果的技术。而现在,如果人们谈论AI的时候仅仅只关注它的民用用途,而忽视掉它的军事潜能,那就是在空谈。

作为人类历史上最高效的组织结构之一,军队在如何最高效杀人方面的研究从未间断。而AI的出现,为军队作战即时战略化和第一人称射击化做出了关键贡献。

毫不夸张地说,AI已经进入了军事领域而且深刻地改变着我们的军事发展轨迹,未来也将改变我们战争的逻辑以及延续自19世纪以来的总动员模式。毕竟AI可以为军队从大脑到四肢的所有结构赋能,而且甚至还能给军事政变加加速。

有人可能会问了,AI操控机器人战士可以理解,军事政变这事该这从何说起呢?

我们就从今年爆火的AI大模型说起。

2022年下半年以来,投资圈和科技圈最津津乐道的就是AI大模型的商业化突破。

从2022年10月以来,基于大模型的生成式AI在短时间内上市了从文字到图片、文字到视频和人与AI聊天等多种功能,迅速在多个领域实现了商用化突破。

一时间用AI训练对话聊天、制作视频图片、搜索消息等等技术,都进入了一个新的次元。但是在这一片祥和的背景之下,新时代的互联网战争模式已经发生了颠覆性的变化。

2023年3月,特朗普即将被逮捕的新闻刷爆了全球社交网络,而与此同时一系列图片吸引了全球人民的注意力。那是一幅幅特朗普被捕和特朗普在监狱的图片。里面的特朗普狼狈不堪,早日没有了往日睥睨天下的气质。

之后,真相浮出水面,这是当时美国民主党支持者通过AI生成的特朗普被捕图,主要就是想嘲讽共和党尤其是特朗普的支持者。

很快啊,我是说很快,来自特朗普的支持者的反击就来了。同样利用AI生成的,比如佩罗西、拜登等的被捕图,以及特朗普持枪领导着特工们冲锋的图片也在网络上爆火了起来。

之后随便遇到点什么事,都会有类似的爆火的照片。比如我龙哥访华的时候,就会有他站在一排中国国旗面前宣誓发言的照片

这就有朋友要问了,整个小打小闹和军事有什么关系啊,不就是高级版水军刷屏嘛。

但是事实上,这种东西是可以决定一个国家生死的,因为它可以用极低的成本进行认知作战。

这里我们举一个小小的例子。2016年7月15日晚,土耳其发生了一件小小的事件。一小撮部队发动了针对埃尔多安的军事政变。他们在对军队指挥中枢发动攻击之后,很快就控制了位于首都安卡拉的土耳其广播电视协会(TRT)电视台,女主播蒂珍·卡拉斯向电视观众口播了一份政变军人起草的声明。一个自称“祖国和平委员会”的军人团体在声明中宣称,军队已经接管政权,全国范围实行宵禁并实施军事管制法。

但是很幸运,埃尔多安事先通过普京知道了这一个消息,在第一时间躲过了一劫。然后他干了什么呢?不是马上打电话去陆军总部或者去找美国人要说法,而是开始了直播

7月16日零时24分,埃尔多安开始通过苹果手机上的视频聊天软件FaceTime开始接受美国有线电视新闻网土耳其语频道采访。他对着手机摄像头发表讲话,号召民众走上街头,抗议政变,“给予他们(叛变军人)答案”。埃尔多安同时还在“推特”上发言,呼吁民众到机场和公共广场上去,“夺回民主的所有权和国家主权”。

这时候,对于政变军人来说,已经大势已去了。

因为无论是朴卡卡被杀还是乌克兰颜色革命等等政变历史经验都证明了一个事情。那就是政变的关键不在于领导究竟怎么样了,而在于多数人在短时间内形成一个政变已经成功的共识,而这个共识可以跟政变的实际动作毫无关系。

于是靠着在社交媒体上发视频然后动员支持他自己的人民上街,埃尔多安成功扛住了那一次政变,然后对反对他的人开展了一波大清洗。

但是,我是说但是,如果当时政变部队有大模型支持下的fake news,他们可能会怎么做呢?

埃尔多安翻盘的核心操作就是在网络上的直播和社交媒体的视频,动员支持者走上街头。而这些东西现在的大模型AI是可以伪造的。

这样,政变一方可以先利用大语言模型支持的机器人直接在社交媒体上刷评论,说反对埃尔多安的话。然后制作假照片和假视频说埃尔多安已经被抓住了,大势已去。这样既可以对冲埃尔多安的社交媒体的视频,还能动员反埃尔多安的观众以及还在观望的部队全部加入政变的序列

这样埃尔多安即使最后没被抓住,也可以被“吹死”了。毕竟对于政变来说,核心就是在对面还没反应过来的时候把控住中央权力,尤其是军队的全面支持。只要做到了,那政变就成了大半。

更进一步,这样的技术同样意味着,有心人可以低成本的使用脚本,利用互联网定点进行fake news信息投喂乃至推动小成本地动员颜色革命。一般人还真不好判断是真是假。(毕竟很多人甚至分不清实际拍摄视频和游戏画面)

于是认知作战作为一种超限战模式,正在逐步突破二次元虚拟世界的藩篱。将网络水军升级为chatgpt水军,可以自动化低成本地实现从感官上就蒙蔽国民获得正确信息的途径,通过信息源头的污染,更加高效的去影响世界的认知。

而这仅仅是AI最低成本的一种军事应用。

如果把作战比喻成强壮有力的人有计划的打架,那么AI会在国家军队这具身体的几乎每一个部分都进行颠覆性的赋能。

有句老话讲,天下武功唯快不破。自古以来,如果你在打架中反应速度比对手快的话,那你就有很大概率可以赢。

打仗也是一样,所谓军神就是能料敌先机,赶在别人反应过来之前做好准备然后打完之后再到下一场战役中又先一步做好准备。

而正如人打架时候的反应是分为你身体感知对手的动作以及脑子做出回应两部分一样,AI对于军队反应速度的贡献也已经体现在军队的情报搜集和加快指挥控制反应上了。

首先就是让你找到对手在哪,然后打他。玩过第一人称射击游戏的朋友们对于锁头、自瞄之类的外挂应该很反感吧。但回过头来到了现实中,你不但会发现你家红外监视器现在可以利用AI把不同的人用方框框出来,智能汽车能将周围路过的人、汽车等识别出来进行威胁判读。

没错这些技能很多都是在原有军用技术的基础上下放下来的。

早在几十年前,军队就在考虑怎么弄才能做到在人没有发现的前提下机器自动发现敌人并进行威胁判别。

于是在作战需求的牵引下,军队在最近这20多年里,铺开了对于AI的发展。将AI与先进光电传感器,混合使用可见光、红外线等探测通道搭配,使得无人机等平台广泛拥有了对人、车、坦克和其他物品进行本地识别和区分的能力。

在相关功能的基础上,AI可以通过设置一些条件进行基础的威胁分析。一旦被识别为威胁同时操作员确认开火,那无人机之类的武器平台就会自动瞄准、发射导弹把你带走。实现万里之外取项上首级如探囊取物,在战场中实现真正意义上的自瞄锁头挂

这样AI就可以替代人执行监视侦察和打击流程中大部分的功能, 把人更多的时间解放到更需要人参与的工作中。

当然这些AI已经部分民用化了,那自然是小儿科,真正的能解决大问题的技术有很多,比如AI卫星找航母、跟踪飞机。

自二战以来,反航母作战中最难的一部分始终是找航母。

有人可能要问,这船几百米长,几十米宽难道还不好找吗?

还真是!我不知道各位看图的能力怎么样啊,但是从卫星看茫茫大海中的一艘船感觉是这样的。在没有AI的时代,读图只有靠人。但是用人找航母何其难啊,哪怕是0延时地把那块海域的照片传到了后方。参谋们看完那十多万平方公里的照片,从疑似目标中分辨出航母,大概也要至少几个小时乃至一天以上

而一般航母都能以30节(每小时54km)的速度在海上狂飙。你即使拍到了它,只要你5个小时内没有发现你拍到了那艘船,你就要在半径270km的圆里重新找它;如果你8小时后才发现那艘船,整个圆的半径将会是432km。

为了解决这个问题,苏联人用尽了办法。他们不光派船、派飞机接力跟着航母跑,还试图用“神话”卫星系统使用雷达加无线电探测的方式来跟踪监视航母。但是这种方法遇到严格遵守无线电纪律的舰队那就可能会抓瞎。

那么解决方法呢?当然是AI啦。毕竟人怎么可能读完那么多图呢?

2022年5月,《南华早报》报道了一则消息。在2021年6月7日,美国“杜鲁门”号航空母舰在纽约长岛海岸附近的海峡过境演习时,一颗应用最新人工智能技术研制的中国遥感卫星对其进行了实时探测和跟踪。

在2022年4月,航天东方红卫星有限公司的科学家杨芳和其他科研人员在国内期刊《航天器工程》上发表了一篇论文:《遥感卫星在轨图像智能处理设计与验证》

在论文中,新型的AI遥感卫星有三种核心技术:星载深度学习加速技术、实时云检测技术、多层级在轨重构技术。

其中基于星载神经网络加速技术,卫星的“单幅图像推理(检测)运算量较原始模型降低约33倍,网络参数从200Mb左右减少至1Mb以内。对原始图像分为标准子块后处理,在星载嵌入式平台上可达200帧/秒。”

有人能做到这么快吗?没有吧。

而且作为一种军用目的很强的卫星,其对于目标照相、识别等进行本地化处理都是在卫星体内完成的,地面数据库只是作为辅助数据库而存在。我估计地面数据库的主要作用不是直接参与读图,而是给天上的卫星判读结果来进行强化学习打分的。

而在更早的时候,我国就已经先后公布了,卫星跟踪识别客机、乃至战斗机在内的多种飞行器的视频。这意味着在战前,只要有足够多的卫星进行连续覆盖,我们可以对美国的航母全球部署进行完整跟踪。甚至理论上后续随着技术迭代和更多的卫星上天,不间断地对美国的每一架飞机进行全球完整跟踪也不是不可以做到,这样一来,隐身飞机就会显得比较搞笑。

这方面我们早在2019年公布了一个计划,即在2021年完成的首个人工智能星座。该星座计划由192颗卫星组成。人工智能星座将采用5米、1米、0.5米等多种分辨率的遥感卫星混合布局设计。

可以说随着这个星座成型,卫星们可以协同对同一目标进行高频观测和在轨判断,然后决定是否回传。这样不光我们民用遥感的需求可以得到极大缓解,军用遥感需求也可以得到很大满足。

通过智能星座,我们的信息收集就会拥有一只智能复眼,获得关键信息的速度会极大加快。

既然你眼睛已经可以看每秒200帧的图了,那脑子是不是也要反应快一点呢?当然,除了侦查识别之外,AI也正在改变军队的指挥控制体系。

其实在前AI时代,人们就不停地试图将机器自动化加入军队的指挥中,让整个军队的大脑反应更快一些。其中的典型代表就是前苏联著名的“空气”自动化防空指挥系统。

现在进入了AI时代,我国的公开消息是没多少了,但是美国人公布的计划那可是不少,尤其是在空中力量发展方面。相信我,在美国人的想象和计划中,人可以逐步远离战场了。

在冷战后,美国人一直在强调非接触式战争,他们试图利用自己的信息优势打出零伤亡战争。所以美国在AI快速综合信息判断,以及让无人装备冲在最危险的区域方面一直走在前列。

在经过30年的硬件发展,现代智能手机的运算能力已经比冷战时候很多超级计算机还强了。

于是,很多自主作战的硬件难点已经逐步被攻克。90年代第一代现代意义上的察打一体无人机,捕食者服役。2013年使用飞翼布局的X-47B在航母上实现了自主起降。

在2020年8月,在霍普金斯大学举行的AlphaDogfight试验,在模拟器中,AI与经验丰富的F-16战斗机驾驶员进行了5次模拟战,然后以5比0的成绩打败人类驾驶员。

美国也在2010年代的末期确定,美国的六代机NGAD将会是一种有人机搭配无人机的作战系统,由有人机指挥无人机。

既然硬件升级那么厉害,30年之约已到,有请龙王归位。是时候让现代作战指挥系统向RTS游戏或者很多第一人称射击游戏的方向靠拢了。

要做到这一步,AI就是必须的了,毕竟无人机都要靠AI来控制嘛。所以在2018年的时候,美国国防部高级研究计划局(Darpa),针对未来大国作战,尤其是空战战役构想,推出了著名的马赛克战模式

马赛克战的核心就是为了应对中俄对美国进攻力量的反制能力提高,通过AI控制分散化协同控制的有人机和无人机实现对于对手在决策速度上的碾压。

在具体操作上,美国打算把隐身无人机前出作为传感器和武器平台对敌方进行探测和打击,有人战斗机在中间担任协调和信息整合的平台用AI控制无人机并处理信息,然后再将信息传递给后方节点指挥。

后方指挥节点上的AI将整合各个前方节点传回的信息,然后通过AI把整个战场拼凑起来,然后再向前传递信息给有人机-无人机组成的前面感知打击小队,并且做出决策。

这样AI可以为美军在攻防两端提供两个好处首先是高价值的指挥机、加油机等可以在后方远离高风险地区。而执行任务的飞机无人机和有人战斗机由于有更高的灵活性以及可以在AI的帮助下随时重新进行战术小组的解散和重组并且分享和分析信息。让小队在获得相对比较全面信息的基础上,让行动变得更加安全,并且随时能调用合适的打击平台进行打击。

而在防守端,由于敌方只能首先探测到各种奇怪的无人机或者其发射的传感器。所以很难完整获得美军的作战意图和部署。而且甚至如果没有AI帮助处理数据的话,敌方的指挥控制系统很快就可能会因为目标过于分散而超过信息处理能力的上限而宕机,造成一片混乱。

这正是美国人想要的效果,美国人将其称为决策中心战,意思就是我通过AI辅助指挥控制体系,通过扰乱对手的判断和提升自己决策的速度,人最终只需要做出类似打击与否的关键决策就行了,信息处理和大致情况判断交给AI。从而实现在决策上先对手一步。实现一步快、步步快,做到天下武功唯快不破。

这样的好思想肯定不会是空战独享啊,现在美国国防部现在正在力推的全域联合指挥与控制(JADC2)就正在推进相关建设。其最终目标是在AI的辅助下,做到分散化部署的平台和部队可以在需要的时候,调动任何军种适合的火力对对手进行打击;同时整个系统在AI的辅助下,在作战期间实时重组部队。

这样,军队将脱离传统的树状指挥层级和人的请示决策过程,而更加扁平化和选择多样化,指挥官能够最大限度地发挥其决策选择性优势。

在未来理想状态下,人作为整个指挥打击链条中最慢的一环,只需要根据实时状况做出是否开火、以及向哪里开火的决定就行了。而AI就成了整个打击链条无论是协调指挥还是分配任务的核心,就像嘀嘀打车打车一样。也许未来的现代战争就是嘀嘀打人吧。

有了观察力敏锐的眼睛和反应速度极快的大脑,要确保能打赢架,人就要有更快的反射能力、可以迷惑对手判断的干扰动作。AI这时候就又可以站出来了:你们说的我全会。

现在我们很多人,一去什么演唱会、球场比赛啊之类的,就会发现,你信号是满的,但是没法发消息和照片。这种就是所谓信道拥堵。别以为这种事情只会在民用领域出现,军用领域经常会因为信号频谱相互冲突出现所谓的电磁兼容和信息拥堵问题

所以在信息化战争时代,除了升级军用4G/5G通信系统这种提高信道宽度、拓展可用频谱宽度的操作之外,更重要的是让不同的信息平台按照规定使用不同的频段。

但是这种严格无线电纪律的行为还是会出现问题,原因无他,以前十来号人分一个无线电台,现在一个人可能有好几个无线信息交换装置。太多了,分不过来了。

那怎么办呢?为此DARPA之前就办了一个“频谱协同挑战赛”Spectrum Collaboration Challenge (SC2),其主要目的就是找到方法让有限的电磁频谱波段以及在干扰环境下容纳更多的电子设备。

在开赛几年之后的2019年,AI搅局了。在决赛中, 比赛里面有五支队伍的AI在对电磁频谱进行分配后,整个无线电系统传输的数据量比当时根据传统经验频谱分配方法传输的数据,传输量多出200%以上

这意味着一个网络在带宽不变的情况下,引入AI,在战时甚至可以容纳原本3倍以上的电子设备同期进行数据交换。这样军队的神经——通信系统的速度直接原地扩大到之前的三倍,这对于把传感器武装到牙齿的各种新型设备来说简直是救世主,也让军队信息的反应处理上限大大加强。

而迷惑敌人也是AI的老本行啦,除了开头提到的认知作战迷惑战略之外,更加传统的迷惑对手的方式之一就是电子战。传统上电子战的核心就是通过调制后端的程序来实现对于敌方信号的干扰,而这方面本来就是软件的AI自然是更加在行了。

早在2016年的时候, Darpa就已经推出了“认知电子战”概念,整个概念分为两个部分:自适应雷达对策(ARC)和自适应电子战行为学习(BLADE)。核心就是使用机器学习算法实时侦测和标记雷达、通信的发射,它可以瞬间学习分析其特点,然后产生一个对策。

在这种情况下,只要硬件水平够,功率够, 通过软件的后端调整和机器学习,它可以针对对方的雷达通信电子战信号特征,自己短时间内分析生成相应的对应对抗模式。这样妈妈再也不用担心数据库里没有储存对应的信号特征以及相对应的对抗模式了。

现在通过AI的操控和硬件的升级,EA-18G和F-35在升级后都有能力用自己机头的有源相控阵雷达参与对于敌方通信系统的干扰。

但是这些甚至都可以算作是小头

从极限思维的角度上来说AI潜在最具有颠覆能力还是在于它有潜力颠覆你的国家获得资源的关键消化系统和社会秩序,同时它也可能重塑一个国家、一支军队由人为主体的传统结构模式。

美国人在近十年以来越来越强调网络设施的安全性,他们甚至威胁如果有网络基础设施被攻击,美国可能考虑使用核武器。这当然是对核武器本身的一种不尊重以及对于美国自认为的核优势的滥用

但是大家有没有想过为什么?

2006年,伊朗核工厂重启铀浓缩,之后没多久他们就发现很多核同位素离心机一启动,离心机就超速。由于离心机的工作速度是超音速的,很快就毁掉了上千台离心机。这直接导致2009年到2010年离心机运行能力下降了 30%

后面到2010年的时候,根据俄罗斯的相关反病毒实验室公布,世界才知道,这是美国和以色列根据windows系统在当时的2个漏洞,和西门子控制系统的7个漏洞,针对伊朗广泛采用的西门子工业控制系统进行的精确打击。

而植入病毒的方式据说是利用特工把一个U盘插进伊朗核设施局域网下面的一个打印机,我们把他称为U盘侠。

好家伙,直接一个U盘废了上千台离心机

2021年的时候,美国东海岸最大的燃气管道运营公司科洛尼尔,遭到了一群黑客的网络袭击。5月7日的时候其公司内部电脑网络,遭到了勒索软件的袭击,大量的文件被锁定或窃取。该公司为此关闭了输油管道。

而当时美国东海岸45%的燃油天然气通过他们的管道进行运输,日均运输燃油250万桶。

这事直接导致17个州和华盛顿特区进入紧急状态。

除了对于上述实体基础设施的攻击,对于金融交易所等基础设施的攻击也是十分受到关注的。

而这个时候AI来了,它现在可以找漏洞、设计病毒和攻击了。

众所周知,现在微软和open AI都在推进有关AI编程的研究,甚至有些程序设计已经做得比很多程序员都好了。同时很多公司也在寻找、设计、甚至已经使用AI来进行程序漏洞搜集,比如微软推出的Microsoft 安全风险检测(Microsoft Security Risk Detection,MSRD)

至于设计病毒嘛,AI一样可以代劳,毕竟Chatgpt训练训练都已经可以搞这个了。日本共同社网站在4月21日就有报道,专家对ChatGPT进行调查发现,若输入装成开发者的指令,ChatGPT就可以生成能用于网络犯罪的电脑病毒。

这意味着从逻辑上来说,AI自主找到系统风险,然后标注,根据大模型要求自动生成病毒文件,然后进行渗透的逻辑是已经可以跑通了。

而且它还能在AI的帮助下做到升级版。

2018年IBM研究院在计算机安全大会BlackHat上展示了他们制造的恶意软件:Deep Locker

这个恶意软件运用AI通过人脸识别、地理信息、语音识别、全方位数据分析等等方式,有针对性地发作。而在目标出现之前,它只会藏身在普通的软件之中默默休眠,几乎没有一个病毒该有的特征,隐蔽性极强。

所以想象一下,一个可以智能识别环境或者关键人物的、使用AI自动搜寻漏洞对工厂、金融系统等联网基础设施进行全自动攻击的量产病毒,似乎已经不是天方夜谭了。

这仅仅是对工业设施,如果把这套逻辑对付人,通过爆发大瘟疫来瓦解对手的社会动员体系呢?

很不幸,AI似乎也能提供帮助。

众所周知,有一条公理是杀一个人永远比救一个人简单

而现在在医学界,就少不了辅助设计药物的AI。比如设计出阿尔法狗的DeepMind公司推出的AlphaFold 2,我相信很多人都听过这个的大名。

它在2020年11月30日的蛋白质结构预测大赛CASP 14中,对大部分蛋白质结构的预测与真实结构只差一个原子的宽度,达到了人类利用冷冻电镜等复杂仪器观察预测的水平。

这实现了蛋白质结构预测史无前例的巨大进步。

一般认为,这玩意主要是用于制药的。

但是,我是说但是,如果这个东西变成军用,用来制作生物、化学武器呢?

理论上来说,AlphaFold解析结构的能力,一旦被转移军用,针对性开发武器用物质。那么军方制作有毒物质的难度和迭代速度将迅速提升,甚至可以有制作一些针对性极强的武器级有毒物质,乃至成为全新的生物化学武器的潜力。毕竟世界人民经过三年疫情都应该明白,搅乱社会需要的不是一个强致死率病毒,而是一群不停变异的病毒。

而且AI的自身迭代能力极强,即使本代AlphaFold 2在一些专业领域有局限,但是由于AlphaFold 2已经跑通了相关领域的工程应用逻辑,未来的AI必然有能力解决现在的程序局限。

未来AI搞出来的生化武器,那很有可能变成对于对手社会体系精确打击手段的一部分,不得不防啊。

而最后也是最根本性的,那就是AI会改变人类军队和社会的组织动员体系

这里我们先不谈AI可能造成大量失业的问题,而谈一个事情,那就是机器人战士。没错,就是未来由AI控制的各类无人武器,全面取代人在战场上执行各种任务。

现在这种设想肯定是不行的,首先问题就是信号不好和AI发展不行。怎么说呢,前几年俄罗斯在叙利亚战争中投入了不少无人坦克之类的东西,然后发现由于地形复杂,很多标称遥控2km的战车,只有实际200-300米的遥控距离。而且由于智能系统不足,必须要士兵进行手操遥控作战,很不方便。

但是随着现在AI在海洋空中应用的增加以及未来AI在陆地威胁和异型物体识别能力的提升,以后陆地巡逻完全交给机器人,甚至一个士兵操纵几个几十个AI机器人作战都并非不可能。

而到了那个时候,战争的主体将从人变为由人操控的机器人大军。而机器人将成为作战和消耗的主要资产。

实际上现在俄乌战争已经有这种趋势了,无论从俄罗斯还是乌克兰方面,使用民用无人机以及穿梭机来进行侦察和自杀式攻击的视频已经多如牛毛。而双方各自宣称击落的对方军用民用无人机总和都已经超过万台。

未来如果延续下这个趋势,在AI自主作战的背景下。总动员的对象就不再是动员人和工业为战争服务,把最后一个人送上前线。而是动员一切工业为制造AI机器人和无人机服务,把最后一台AI战争机器送上战争前线。

而这时候工业大国的优势将进一步得到扩展,毕竟机器不用十月怀胎,年方十八初长成。只需要走下流水线,注入程序就行。

这样就不再有职业兵可以轻易打败动员兵的事情发生,也不用担心死的人太多从而放弃占领土地,死得最多的还是机器人。

到那个时候世界可能会迎来下一个战国灭国时代

在最后,笔者想发表一下一些小小的担忧。

AI本质上作为一种军事应用前景极强的军民两用技术,和计算机以及互联网一样,军方需求已经牵引了很多前期成本建设投资。

现在随着近十多年来,信息技术革命成本的降低。AI技术不仅渗透进入了千万家的手机和电脑,而且已经成为了高新技术武器中极为重要的一部分。

不论我们主观意志如何,AI为军事发展赋能的方向已经确定。也许这条路上,天网或者moss就在不远的将来等着我们,当然我们也不知道这条路的终点会是什么。

但是我们这条路终究会走下去,它会改变我们的军队结构和社会结构,并永久改变我们后代的价值观和战争伦理。最后我想引用基辛格在其2021年出版的《人工智能时代与人类未来》中的话作为结尾。

“当人类开始在创造新的、不断演化的、拥有智能的武器方面开展竞争时, 历史不会原谅任何对此设限的失败。在人工智能时代,对人类优势的持久追求,仍须以捍卫人类伦理为前提。”

关键词: