五角星电影

军事报道

AI赋能常规武器可实现级核弹相似的打击效果

时间: 2025-10-30 来源:

瑞典斯德哥尔摩国际和平研究所(SIPRI)10月25日文章,关于“人工智能与核武交集”的报告,这次非常系统地扒开了“AI+核武”这个黑箱,增加了很多内容,把当前的真实风险点一个一个摆上了台面。

static/image/2601/e049c7b4f22.png


这份报告的核心观点很明确:AI融入核武器及其相关系统正在重塑全球安全,引入了新的弱点和不确定性,显著增加了“擦枪走火”乃至“意外核升级”的风险


static/image/2601/e049c7dae12.png


一、AI让核指挥链变得更“脆弱”,而不是更强

报告首先提出:AI正在被整合进核指挥、控制与通信(NC3)系统。听起来很厉害,似乎能加快决策、提高预警精度,但实际上是把核武器的“保险”交给了算法。

AI的“黑箱”特性,意味着你根本不知道它为什么会做出某个判断,因此可能产生误报和漏报。前者最经典的战例,就是1983年苏联国土防空军中校彼得罗夫遇到的情况。当时他的卫星预警系统(Oko)误报美国发射了五枚洲际导弹,但他顶住压力,凭经验判断美方不可能用五枚导弹打第一波,并上报“系统故障”,最终避免了一场核大战。事后查明,确实是卫星传感器被云层反射的阳光干扰了。如果换成AI,它可能在几秒钟内就“建议”甚至“启动”反击了。报告也引用了我方学者陆楚颖在《人民论坛》上发表的文章,佐证了AI的不透明性会严重干扰决策。

因此,核指挥链的“定海神针”必须是人,是清醒的、有判断能力的指挥员。 我们的NC3系统,在智能化升级中,也会把“绝对可靠、绝对可控”放在第一位,不会掉进“AI万能”的陷阱。


二、“二次打击”能力正面临AI的精准“猎杀”

AI的超强数据处理和模式识别能力,正在赋予反潜战(ASW)、情报监视与侦察(ISR)系统“开天眼”的能力。

报告援引美国的研究,直言AI和先进传感器(如量子计算)的突破,可能使海基核力量(如战略核潜艇SSBN)的隐蔽性荡然无存还引用了我方清华大学战略与安全研究中心(CISS)的研究,明确指出:中俄都日益担忧,美国利用AI技术“跟踪和自动搜索机动导弹发射装置的能力一旦成熟,将威胁到我方的报复能力”。

一旦海基核力量和陆基机动发射车这种“二次打击”的核心力量被实时“盯死”,核威慑的平衡就被打破了。

面对这种情况,美国的叙事是:中国在核威慑能力受到威胁时,会采取更激进的措施来“对冲”这种威胁。由“从容的二次反击”转向“分秒必争的预警反击”。

美方宣称我们正在扩建发射井、发展先进预警系统,可能在转向“预警即发射”(LOW)姿态。“预警即发射”姿态就是把核反击的决策时间从几天、几小时,压缩到几分钟,完全依赖预警系统。是一种岌岌可危的平衡。他们反过来又指责“预警即发射”姿态“更具攻击性”,并以此为借口,投入更多资源研发更快的AI、更强的反制手段。

实际上,中国没有“预警即发射”的核武器政策,而是坚持“不首先使用”原则,并奉行防御性的国防政策。 中国不会在受到核打击之前就先发动攻击。

报告里引用了我军退役大校杨承军的一个说法,大意是我方核反应时间在“几分钟之内”,能够在“敌方核武器落地前实施核报复”。杨大校的本意,是强调我军已具备“可靠威慑”的能力,就是你敢打我,我一定有能力还手。但在西方的叙事中,这句话的上下文被抽离了,他们无视这是为了确保反击能力,反而将其歪曲为我方在转向“预警即发射”(LOW)的“攻击性”姿态,并以此为证据,为他们研发更强的反制手段提供借口。


三、美国等核大国为常规武器攻击保留核反击选项

报告的第三个警示是:不要只盯着核弹头,AI赋能的常规武器,已经可以实现“战略级”的打击效果,比如AI赋能的无人机(UAV)和无人水下航行器(UUV)。

最典型的例子就是俄乌冲突中,乌克兰使用无人机精确打击了俄罗斯的战略预警雷达。这是用“常规”的无人机,攻击了对方“核预警体系”的关键节点

这种打击极大地模糊了常规战与核战的界限。报告指出,包括美国、法国、俄罗斯在内的核大国,都在核理论中为“非核战略攻击”保留了核反击的选项。这意味着,未来一场由AI无人机引发的常规冲突,可能在极短时间内、以谁都没想到的方式,失控并升级为核对抗。


四、“人类在环”的共识掩盖了真正的分歧

谈完风险,报告自然要谈“治理”。而这部分,恰恰暴露了现在西方主导的“军控话语”是多么空洞。

目前,从P5(五常)到各种多边论坛,大家都在高喊要“保持人类对核武器的控制”,这似乎是“共识”。

但报告指出:几乎没有国家对“人类控制”的具体含义达成共识

首先,是美国的“双重标准”。美国人对核武器,调门很高,说要“始终保持人类在环”(Human "in the loop")。但一扭头,对AI赋能的常规自主武器,他们就只提“适当水平的人类判断”(appropriate levels of human judgment)。然而,在第三节中已经讲过,AI赋能的常规武器,已经可以实现“战略级”的打击效果,模糊了常规武器和核武器之间的界限,这个“适当”的口子就开得太大了。

另外,还有非核国家的“合法化”顾虑。反核国家(比如奥地利、新西兰)的目标是“彻底销毁核武器”。他们非常警惕,如果他们同意“在使用核武器时必须保持人类控制”这个议题,就等于默认了“核武器是可以被使用的(只要是人来用)”。这等于在事实上承认了核武器的“合法地位”,从“该不该有”的问题,变成了“该怎么用”的问题。

各方在这种“话语陷阱”里盘算,根本无法达成真正的共识。


五、治理AI核风险不能靠“空对空”的清谈

报告最后提出的“路径”,如增加透明度、建立信任措施(CBMs)、设立热线等,基本都是冷战时期的老办法,想套在AI这个新事物上。

但AI核风险的本质是高度不对称、技术迭代极快、军民两用性极强。你说要禁止“自主核武器”,那AI赋能的、具备核常兼备能力的无人潜航器或高超音速导弹算不算?报告提到我方在2025年宣布禁止出口用于军事目的的民用无人机,是一种治理,但也反映了军民两用技术的管控难度。

因此,想靠开几个国际大会,搞几个“空对空”的原则宣言,无法解决问题。报告提到了中美之间在网络风险问题上的专家对话,才是真正务实的路径——核大国之间,坐下来进行严肃、闭门、硬碰硬的战略稳定对话。我们不谈那些虚的“价值观”,就谈具体的“行为边界”:是否同意不使用AI系统主动“猎杀”对方的战略核潜艇和机动发射平台?是否同意不攻击对方的核预警卫星和指挥节点?

版权所有:五角星电影制片有限公司
地址:北京市海淀区北四环西段万泉河路46号
电话:13718690570 / 01066736920
©京ICP备2023009986号-1
邮箱:pentagramfilm@163.com