2023年8月10日,美国国防部宣布成立了一个新的特别工作组,以更好地了解生成人工智能(AI)工具(如大型语言模型)如何支持其创新努力,同时被负责任地使用。
副部长Kathleen Hicks在一份声明中表示:“利马特别工作组的成立凸显了国防部对领导人工智能创新的坚定承诺。”“当我们驾驭生成人工智能的变革力量时,我们的重点仍然坚定不移地确保国家安全,最大限度地降低风险,并负责任地整合这些技术。国防的未来不仅仅是采用尖端技术,而是要以远见、责任感和深刻理解对我们国家的更广泛影响来这样做。”
根据国防部的公告,利马特别工作组将由五角大楼首席数字和人工智能办公室(CDAO)领导,“将在整个国防部评估、同步和采用生成人工智能能力,确保该部在维护国家安全的同时保持在尖端技术的最前沿。”
虽然不是一项新技术,但在过去的几个月里,生成人工智能在技术领域的人气飙升,因为它与ChatGPT等东西的可访问性。该技术在巨大的数据集上进行了培训,可以生成音频、文本、图像和其他类型的内容。现在,国防部正在研究如何将生成人工智能用于情报收集和未来的作战。
但是,虽然该技术可以为国防部提供新的机会,但该部门还必须考虑该技术可能面临的风险。希克斯宣布利马特别工作组的备忘录表示,该部门旨在负责任地使用该技术,特别工作组将就如何做到这一点提出政策建议。
CDAO将与国防部负责政策、研究和工程、收购和维持、情报和安全的办公室以及国防部首席信息办公室一起工作——所有办公室都专门在特别工作组下分配了角色。
CDAO Craig Martell在公告中表示:“国防部必须负责任地寻求采用生成人工智能模型,同时确定适当的保护措施,并减轻因训练数据管理不善等问题而可能造成的国家安全风险。”“我们还必须考虑我们的对手将在多大程度上使用这项技术,并寻求破坏我们自己对基于人工智能的解决方案的使用。”
根据备忘录,从特别工作组吸取的经验教训将通知国防部负责任的人工智能工作委员会。该文件进一步概述了特别工作组的具体目标和预期产出,并制定了时间表。例如,到2024财年第二季度,利马特别工作组预计将对大型语言模型和生成人工智能用例进行评估和建议,然后在财政年度的下一季度之前制定治理和监督计划。
5月,Martell警告了生成人工智能的缺点,称它可能成为虚假信息的完美工具。“是的,我害怕得要死。这是我的观点,”他在巴尔的摩举行的AFCEA TechNet网络会议上说。
尽管如此,五角大楼仍将寻找最佳利用该技术的方法。4月,国防部负责关键技术的副首席技术官Maynard Holliday在接受Breaking Defense采访时表示,该部门将举办一次关于“可信人工智能和自主性”的首次会议,该会议将部分关注生成人工智能的危险和潜力。
Holliday说:“我们肯定会谈论......我们将如何缓解法学硕士的幻觉倾向,以及我们可以做些什么来使向法学硕士的查询结果更加可信。”
与此同时,军队本身已经开始探索生成人工智能在未来如何帮助他们。6月,空军部长Frank Kendallan宣布,他要求该部门的科学咨询委员会研究该技术的潜在影响。
“我已经要求我的科学咨询委员会真正用人工智能做两件事。一个是看看像ChatGPT这样的生成性人工智能技术,并思考它们的军事应用,组建一个小团队来相当快地做到这一点,”Kendall说。“但也要组建一个更永久的、以人工智能为重点的小组,该小组将研究人工智能技术的集合,引用、取消引用,并帮助我们理解它们,并弄清楚如何尽快将它们引入。”
评论