人工智能失灵 美国准备对伊朗实施核打击?

发布时间:2026-03-09 01:29  浏览量:1

美国领导层原本计划,把击溃伊朗的行动,不只是做成对又一个 “坏政权” 的杀鸡儆猴式教训,而是打一场

下一代试验战争

。在这场战争中,打击不仅在对手够不着的距离外发起(这早已是美军的标准做法),而且全程由人工智能算法规划和执行。

然而,伊朗的抵抗比五角大楼预想的要顽强得多。伊朗不仅继续袭击美军及其地区盟友的基地,还摧毁了大部分负责大气层外反导拦截的

THAAD

反导系统雷达。西方分析人士称,双方已陷入

消耗战

,而携带集束弹头、内含数十个子弹药的弹道导弹也开始落在以色列境内。

伊朗 “霍拉姆沙赫尔 - 4” 弹道导弹携带集束弹头袭击特拉维夫本・古里安国际机场。

在这一背景下,监测资源显示,美国正向中东调动

“末日飞机” E-6B “水星”

。Flightradar 网站记录到了这架 “水星” 的飞行轨迹,埃及开源情报资源 EGYOSINT 注意到了相关数据。

E-6B “水星” 正沿着此前数百架战斗机、数十架加油机和预警机飞过的同一条航线飞行。

任何没逃过物理课的人都记得,水下无法进行无线电通信,因为水会吸收无线电波,对这类电磁辐射而言是不透明介质。

这是事实,但并非全部真相。波长极长(10 到 100 公里)的电磁波,能够深入海水

多达 40 米

。这一效应让 ** 甚低频(VLF)** 无线电通信技术成为可能。而 “水星” 正是为此而生。

这架飞机配备了功率极强的发射机和两条拖曳式线天线。主天线长度接近

8 公里

,辅助天线略超

1200 米

。飞行时,天线会展开并由飞机拖曳。

相应地,为了接收信号,潜艇也会放出拖曳式电缆天线,并上浮到

20–30 米

深度,那里可以接收到 “水星” 发出的信号。为穿透海水,飞机必须发出

高达 200 千瓦

的极强信号,因此需要间歇飞行,让电子设备冷却。

VLF 通信超强穿透能力的代价,是极低的数据传输速率 —— 仅以 4 个通道、50 字节数据包的方式传送。因此只能向潜艇发送最精简的指令,且过程耗时很长,期间飞机必须以最低速度盘旋。

但 VLF 通信的优势同样巨大:

潜艇可以在不浮出水面、不释放无线电浮标、完全不暴露位置的情况下,接收导弹发射命令。

2025 年底,美军接收了 3 架改进型 “水星”。

截图来源:Telegram 频道《军事观察员》

而这里就到了最关键的问题:

如果 “水星” 真的飞往中东,五角大楼要用它做什么?

显而易见的答案就在表面:

用于对事先未输入导弹飞行任务的目标,使用核武器。

不过,事情也可能不像从 “末日飞机” 功能出发所推测的那样戏剧化。

此前有消息称,袭击伊朗始于 **“战斧” 巡航导弹

的大规模打击。发射不仅来自水面舰艇,还来自两艘改装为巡航导弹载艇的

俄亥俄级潜艇 **。美国共有 4 艘该型潜艇,没有理由认为剩下两艘不在打击范围内。

但首轮打击是针对预先侦察好的目标。经过五天大规模战争,局势已发生改变,并且每几小时就剧烈变动。因此,如果美军指挥部想再次使用潜艇发射 “战斧”,就需要一种灵活可靠的与潜艇通信工具。

而这正是 “水星” 的用途。

另一方面,在美国战争部长皮特・赫格塞思声称美军

“不再受政治正确的战争规则束缚”

的背景下,任何事态发展都不能排除。

近几天另一个值得关注的现象,是美军和以色列空军对大量目标实施的

误击

研究人员发现,在美国中央司令部公布的大量作战画面中,被摧毁的并非弹道导弹发射装置或其模型,而是美军飞行员和操作员看到的

所有篷布卡车

有理由怀疑,广泛用于行动规划的 AI 算法,会把特定外形和尺寸的大型卡车一律标记为目标。人们越来越感觉到,“战争自动化” 导致操作员仅凭推荐就攻击目标,没有时间目视确认车厢里装的是不是导弹。

——《军事编年史》频道指出。

如果说不分青红皂白打击民用车辆还能被算成美军一贯的 “炸完了事、概不负责” 作风,那么攻击

画在水泥地上的飞机、直升机轮廓

这种明显误击,就没法用这套说辞解释了。相当一部分诱饵做得极其粗糙,攻击它们毫无意义,

人类根本不可能犯这种错误

也就是说,犯错的不是人。

近期美军犯下的典型非人级错误之一。

此前有消息称,美军在军事行动初期

大量使用神经网络

,包括

Palantir Maven 智能系统

和 Anthropic 公司的大语言模型

Claude

。前者负责分析战场数据并给出目标指示,后者用于与军人沟通、下达任务和提供咨询。

起初美军对结果非常满意,但从目前高精度弹药被低效消耗的情况来看,

人工智能在动态、大量相似目标环境中的表现明显不足

以色列空军攻击画在地上的米 - 17 直升机。能看出是画的,因为击中发动机后旋翼叶片一片都没动。

在这些精准却如同机器发疯的打击背景下,一个问题浮现:

伊朗米纳布一所女子学校遭导弹袭击、170 名学生遇难,是否正是 Palantir 神经网络 “数字幻觉” 的结果?

这一问题尚未被正式提出,但从美军在战场上的表现来看,这一假设并非毫无根据。

更何况,就在袭击伊朗前几天,战争部长赫格塞思向 Anthropic 公司发出最后通牒,要求

取消 Claude 在军方使用时的所有伦理限制

核心问题不在于 AI 会犯错,而在于美国领导层被新获得的力量冲昏头脑,执意使用神经网络,不计任何代价。

与此同时,肯尼斯・佩恩教授发表在《新科学家》杂志上的一项最新研究显示:

人工智能几乎必然会得出 “必须使用核武器” 的结论。

在调用 GPT-5.2、Claude Sonnet 4、Gemini 3 Flash 进行的、涵盖 21 个资源冲突场景的一系列模拟中,

95% 的场景以使用核武器告终

AI 为解释自己的决定写下了 78 万个单词,

一次都没有选择投降

对其行动的分析显示,在

86% 的场景

中,神经网络在不同阶段出现错误,并

无意导致局势升级

在这一背景下,美国在与伊朗的对抗中失利,已不再是抽象的公平问题,而逐渐成为

人类生存的前提