吴海军 2023-04-19发布 阅读:818次 ⋅ 人工智能  ChatGPT   ⋅
据美国国防部负责关键技术的副CTO梅纳德·霍利迪透露,美军将首次举办“值得信赖的人工智能和自治”会议,邀请国防、工业和学术界关键人物参加,准备围绕ChatGPT讨论:能否在未来的一系列任务中依赖人工智能?

霍利迪承认,美国国防部非常清楚,它正在人工智能的许多方面追赶快速发展的私营部门。

这次会议一个重要目的是推动,不仅要更好地了解前沿发生的事情,而且要更好地了解军方如何采用和适应商业技术,以建立其可以信任和控制的人工智能能力。

“我们认识到需要快速跟进,但也需要开发这些商业技术的军事特定应用,正如美国国防部副部长LaPlante过去所说,需要拥有这些技术的技术基线,以便能够控制它们向军事特定解决方案的演变,而不是被供应商锁定,让我们受制于一个单一供应商来发展能力。”

“技术基线”在这里不仅仅是一个比喻:它是定义复杂系统的基本细节的特定艺术术语,指导其设计和开发,从需求的初始起草到多次审查到最终产品,或者在不断发展的软件的情况下,实现持续的升级。

然而ChatGPT的开发单位OpenAI几乎没有发布它是如何构建的数据,ChatGPT的算法在公司自己的服务器上运行,这让美国国防部感到不安。

用户只看到他们发送的查询和他们得到的回复,而看不到人工智能内部发生的复杂过程。这种基于云的方法也不是OpenAI所独有的,越来越多的公司提供“软件即服务”,而不是销售客户在自己的机器上拥有、下载和运行的软件。

在这样的情况下,美国国防部如何将其拥有技术基线的愿望与私营行业对保护其知识产权的痴迷相协调呢?

“好问题,”霍利迪承认,解决方案的一部分是“我们必须开发军事特定、美国国防部特定的数据语料库,用我们的信息、我们的行话进行更新,以便我们能够与之无缝互动,而且我们愿意信任它。”

在即将举办的人工智能会议上,将研究像ChatGPT这样的“生成性人工智能”的危险和潜力。

霍利迪说:“我们肯定会谈论......未来我们将如何缓解类似ChatGPT大模型的幻觉倾向,以及可以做些什么来使这些查询大模型的结果更值得信赖。”其他主题将包括网络安全、指挥系统和五角大楼最近修订的关于自主武器的控制、可靠性和道德的政策指令。

虽然ChatGPT及其其他语言模型可以消化和生成文本,但其他算法可以扫描数千张图片,然后生成前所未有的图像。最著名和最有争议的例子是稳定扩散和OpenAI自己的DALL-E等艺术生成器,但算法可能会将来自多种类型的智能传感器的数据组合成人眼可以理解的单一图片。

“生成性人工智能跨越模式,”霍利迪,“我们希望将电光学、红外线、网络数据结合起来。这就是它变得真正强大的地方。”

如果生成性人工智能可以变得可靠,五角大楼所谓的“决策支持”的潜力是巨大的。这意味着不仅要帮助决策者和指挥官了解大量不断变化的数据,而且实际上会产生潜在的行动方案。

这种生成人工智能的输入可能包括关于友好部队“杀伤网”的威胁和当前状态的情报,包括网络传感器、武器、干扰器和其他系统,这些系统可能会对敌人产生不同的致命或致残。

多年来,人工智能的局限性一直影响着军事高层决策,但“洞察”这个问题的是对国防科学委员会关于自治的里程碑式研究的反应。这项研究是在2015年和2016年完成的,远在当前生成性人工智能的繁荣之前。

“当向当时的战斗人员指挥部简要介绍时,他们说,‘是的,人工智能很棒,自主性很棒,但你知道吗?除非能信任它,否则我们永远不会使用它,”霍利迪回忆道。

对于越来越多的重要任务,可能没有替代人工智能的选择。导弹防御和网络安全尤其在各个领域,威胁移动得太快,人类无法及时做出反应。

他说:“我们认识到,在未来的战斗中,必须依赖某种形式的(人工智能)而不是某种连续的能力,因为我们将面临的高超音速、定向能量和网络影响,它们将比人类决策更快,因此你必须能够以机器速度做出反应才能得到充分防御。”

霍利迪说,这可能不会像一些人设想的JADC2那样,上升到整个战斗的人工智能驱动管理的水平,包括进攻措施和防御。但是,他强调,“我们必须至少在防御层面拥有一定程度的自主权,这样如果对手使用这些能力,我们就可以以机器速度做出反应。”

那么,你如何让人工智能足够可靠,以信任这些生死攸关的决定呢?霍利迪说:“研究界正在探索一些事情,比如用人类反馈和人工智能加强学习。”

人类反馈强化学习(RLHF)已经在ChatGPT和其他生成人工智能中使用。

本质上,RLHF让人类对人工智能的输出(人类反馈)进行评级,人工智能被激励去做更多获得良好评级(强化)的事情,而减少获得差评级的事情。但RLHF是劳动密集型的,正如ChatGPT幻觉所显示的那样,它可能无法防止所有不良行为,因为它依赖于人。

霍利迪承认,“用人类反馈进行这种数据训练是非常昂贵的,然后当这种反馈被编织到训练集中时,你很容易受到人类的偏见。”

因此,为了让类似ChatGPT进入军事领域,还需要设计军事规则或原则,让人工智能加强学习更为可靠,这样才能够让军事人工智能得到信任。

数字孪生战场实验室将继续跟踪这次会议的成果,并通过本公众号分享给读者。欢迎大家参与相关讨论。



评论

您不能发表评论,可能是以下原因
1、登录后才能评论
2、作者关闭了评论