胡小花 2024-07-11发布 阅读:266次 ⋅ 人工智能  北约  ChatGPT   ⋅

三年前,当北约领导人在布鲁塞尔会面并发布联盟的第一个人工智能战略时,俄罗斯总统弗拉基米尔·普京尚未试图对基辅进行闪电战,OpenAI的ChatGPT尚未在互联网上掀起风暴。今天,在一个截然不同的世界里,当北约领导人在华盛顿会面讨论来自莫斯科的威胁时,他们还发布了一项修订的人工智能战略,将生成人工智能的新现象作为重中之重。

完整的文件尚未发布,今天提供的官方摘要几乎没有细节。然而,一个值得指出的细微差别是,该联盟对genAI似乎相对乐观。

是的,有一个重要的段落警告说,“虚假信息......和人工智能驱动的信息操作可能会影响选举结果,在整个联盟中播下分裂和混乱,在冲突时期使社会和军队复员和士气下降,以及降低对联盟重要的机构和当局的信任。”与2021年摘要中可比但更短、更不紧迫的段落相比,这绝对是对虚假信息的更详细、更可怕的讨论。

然而,2024年的修订更加强调敦促北约国家接受生成算法的上行。“这些技术可以以近乎无限的音量生成复杂的文本、计算机代码和逼真的图像和音频,这些内容越来越无法与人类制作的内容区分。北约在适用的情况下尽快使用这些技术至关重要。”

北约应该如何使用genAI没有说,但美国有很多先例,这在这方面远远领先于欧洲。近一年前,美国国防部启动了对生成式AI的顶级努力,即利马特遣部队。情报界于5月开始使用安全的微软聊天机器人,空军于6月部署了其NIGRGPT工具,陆军计划在本月推出自己的安全生成式AI飞行员。

著名无人机制造商通用原子公司首席执行官Linden Blue说,大型语言模型可以有效地取代或至少增强人类工人处理大量令人麻木的细节。Blue周二在北约会议期间在商会工业论坛上告诉:“有很多事情,例如,写操作手册,这非常费力,需要几个小时来查看数据。”

在高端,他继续说,人工智能正在分析信号智能、雷达信号和其他“极其数据密集型”的情报:“我认为它将在短期内进行,”他说。

近期,美国国防和情报机构已将重点放在使用大型语言模型来处理大量文本——合同、征求建议书、后勤数据,甚至军事情报报告——以产生可消化的摘要,或者在最雄心勃勃的情况下,提出可能的计划。

他们还劝阻员工将公开可用的聊天机器人用于工作目的,列出了人工智能看似合理的“幻觉”,故意“有毒”数据,以及渴望数据的开发人员吸收敏感用户数据来训练新算法的风险。正如利马特遣部队队长、海军上尉Javier Lugo喜欢说的那样,正是这种对“野生”聊天机器人的不信任促使五角大楼在“笼子”中开发自己的定制模型,并希望是更安全的模型。

五角大楼人工智能工作的另一个主要重点,不仅仅是对生成式AI,是仔细测试,以确保算法按预期运行。现实测试对硬件来说已经够难的了,但机器学习算法在摄取新数据时会修改自己,这甚至更棘手,通常甚至对原始程序员来说都是不透明的。

新的北约战略采纳了这一想法,并将2021年版本关于测试的简短建议扩展到更详细和更指示性的东西。2024年修订版中的官方待办事项清单呼吁北约建立“全联盟人工智能测试、评估、验证和验证(TEV&V)格局的关键要素,能够支持采用负责任的人工智能”。

此外,该战略仍在继续,“这些元素利用DIANA附属测试中心的网络。”相比之下,2021年版本只是说:“在即将到来的北大西洋国防创新加速器(DIANA)下,国家人工智能测试中心可以支持北约的人工智能雄心。”

该战略还要求:“盟军测试设施需要能够确定人工智能应用程序是否可以安全使用,并符合北约的负责任使用原则。”2021年通过的这六项北约原则强烈反映了美国国防部前一年通过的五项人工智能道德原则。

最近,美国国防部和国务院领导了国际推动最佳实践的系统化和制度化。这是北约盟国一直响应的呼吁,这体现在这次人工智能战略修订中继续强调“负责任的人工智能”。




评论

您不能发表评论,可能是以下原因
1、登录后才能评论
2、作者关闭了评论