胡小花 2024-06-12发布 阅读:228次 ⋅ 人工智能  国家安全  战斗网络   ⋅

近期,美国智库CSIS撰写了一篇文章,分析AI/ML对美军综合威慑和战斗网络的影响,可以作为《军事人工智能白皮书》和《联合作战白皮书》的读者参考。

CSIS认为,现代威慑文献侧重于国家如何通过威胁和承诺进行交易,没有战争。

这些信号改变了双方计算战争成本和收益的方式,这意味着双方关于能力和决心平衡的信息越少,就越难鼓励克制。信号和通信在国家如何操纵风险以剥夺对手的优势方面发挥着核心作用,包括通过军事力量寻求既成事实的激励。

即使是强调塑造外交政策领导人如何处理危机外交的心理和文化先例的文献,也同样强调信息的核心作用。理性计算根据过去的信息(即信仰如何塑造期望)和有缺陷的加权(例如偏见和前景理论)分解。

在现代军事规划和行动中,信息是通过战斗网络进行管理的。

进行远程精确打击和跟踪敌军部队调动的能力都取决于汇总和分析数据。这种逻辑是联合全域指挥控制(CJADC2)网络的基础,该网络旨在通过由AI/ML提供信息的更快通信、处理和决策层连接的传感器和射手的分布式网络来推送和拉取数据。

网络是新的联合作战概念的核心胜利理论,该概念优先考虑在时间和空间上同步多域效果。

出于这个原因,信息现在是军事力量的关键组成部分,通过代理,一个国家与竞争对手讨价还价的能力。

一个国家在算法的帮助下可以处理的信息越多,就越有可能识别机会和风险的窗口,并调整目的、方式和手段以获得相对优势。

然而,大多数关于人工智能/机器学习和战争未来的新兴文献更侧重于风险和道德考虑,而不是讨价还价优势。

首先,多个帐户声称AI/ML将产生新的风险,包括“爆发战争”,并可能沿着多个载体产生破坏稳定的影响。

人们认为,随着俄罗斯、中国和美国竞相获得技术游戏规则改变者,大国竞争的新时代将以“微妙的恐怖平衡”为标志。

在某种程度上,AI/ML改变了军事力量,它可能会影响国家对力量平衡的看法。

随着对权力和影响力的看法发生变化,它可能会引发无意中升级的风险。

在官僚机构内部,国防规划者可以依靠脆弱和黑盒的AI/ML建议,这些建议会造成新形式的战略不稳定。在战术层面,自主武器系统的速度可能导致无意中的升级,同时在危机期间破坏信号承诺。

这些说法有两个问题。

首先,除了文献评论、替代场景和旨在获得视角而不是评估战略的说明性战争游戏外,关于AI/ML破坏稳定作用的争论尚未得到探索。换句话说,关于风险和升级的假设尚未经过测试。

其次,关于新兴技术和无意升级的叙述往往忽略了增加信息在缓解紧张局势中的作用。

只要在战斗网络中应用的算法有助于减少不确定性,它们可能会支持威慑。你永远无法消除战争的迷雾,但你可以进行天气预报,并描述已知、未知和不可知的事情。

CSIS专家认为,各国将把AI/ML整合到其国家安全企业中,以获得比竞争对手的决策优势。问题不在于算法网络是否扩展到军队、情报界和外交政策决策机构,而是代码行如何与战略核心的人类意志冲突相互作用。

从国家安全角度,探讨AI/ML如何影响综合威慑和战斗网络的演进,是一个很好的话题,欢迎行业人士共同探讨。


评论

您不能发表评论,可能是以下原因
1、登录后才能评论
2、作者关闭了评论