胡小花 2023-05-18发布 阅读:400次 ⋅ 人工智能  ChatGPT   ⋅

OpenAI首席执行官Sam Altman宣誓后向国会议员发出呼吁:监管人工智能。

Altman的公司凭借其ChatGPT工具处于生成人工智能技术的最前沿,在听证会上首次在参议院司法委员会前作证。虽然他表示,他最终乐观地认为创新将大规模造福人们,但Altman赞同他之前的主张,即立法者应该为人工智能创造者创造参数,以避免对世界造成“重大伤害”。

Altman说:“我们认为这可能是一个印刷机的时刻。”“我们必须共同努力才能做到如此。”

与Altman一起在委员会作证的还有另外两名人工智能专家,纽约大学心理学和神经科学教授加里·马库斯和IBM首席隐私与信托官克里斯蒂娜·蒙哥马利。三位证人支持联邦和全球层面的人工智能治理,方法略有不同。

马库斯说:“我们制造了像瓷器店里公牛一样的机器:强大、鲁莽且难以控制。”为了解决这个问题,他提出了像美国食品药品监督管理局这样的监督机构的模式,这样创造者就必须证明他们的人工智能的安全性,并展示为什么好处大于可能的危害。

然而,领导提问的参议员们对快速发展的人工智能行业持怀疑态度,将其潜在影响比作印刷机,而是其他一些创新,最引人注目的是原子弹。

参议员Richard Blumenthal(康涅狄格州民主党)透露了他对人工智能的警惕,他回答说:“我们中的一些人可能把它描述得更像是瓷器商店里的炸弹,而不是公牛。”

会议持续了近三个小时,参议员的问题触及了对人工智能的广泛关注,从版权问题到军事应用。以下是诉讼中的一些关键要点。

关于危险的共识

这次听证会比立法者和科技高管之间的许多其他高调交流不那么好斗,主要是因为目击者承认了不受约束地增长和使用高级会话人工智能等工具的危险,如OpenAI的聊天机器人ChatGPT。就他们而言,参议员们没有问专家提出的一些更棘手的问题,包括为什么OpenAI在充分评估其安全性之前选择向公众发布其人工智能,特别是OpenAI如何创建其当前版本的GPT-4。

早些时候,参议员Dick Durbin(伊利诺伊州民主党)说,他不记得有什么时候私营部门实体的代表曾恳求监管。

Altman和参议员都表达了他们对人工智能如何“大错”的担忧。

当参议员Josh Hawley(密苏里州共和党)引用了研究,即像ChatGPT这样的大型语言模型(LLM)可以从媒体饮食中汲取意见来准确预测公众舆论,他问Altman,不良演员是否可以利用该技术来微调反应,并操纵人们改变他们对特定主题的看法。Altman说,这种可能性,他称之为“一对一的互动虚假信息”,是他最关心的问题之一,关于这个话题的监管将是“相当明智的”。

马库斯补充说,对工作可用性的影响可能与以往技术进步的干扰不同,蒙哥马利是基于最高风险用途(如选举)监管人工智能的支持者。

当被问及他对人工智能最糟糕的恐惧时,Altman坦率地讲述了他工作的风险。

“我最担心的是,我们将对世界造成了重大伤害。我认为这可以以很多不同的方式发生,”Altman说他没有详细说明,但批评者的警告从错误信息和偏见的传播到导致生物生命的彻底破坏。Altman继续说:“我认为,如果这项技术出了问题,它可能会出错,我们希望对此直言不讳。”“我们希望与政府合作,防止这种情况发生。”

对人工智能的担忧促使包括埃隆·马斯克在内的数百名科技界巨头于3月签署了一封公开信,敦促人工智能实验室暂停对“社会和人类”构成的风险,暂停对超能力系统的培训六个月。本月早些时候,被称为人工智能“教父”的Geoffry Hinton辞去了他在谷歌的职位,他说他对自己的工作感到遗憾,并警告了该技术的危险。

具体监管建议

Altman为国会如何监管人工智能创造者制定了一个总体的三点计划。

首先,他支持创建一个联邦机构,该机构可以授予许可证,以创建超过一定能力阈值的人工智能模型,如果这些模型不符合政府制定的安全准则,也可以撤销这些许可证。

这个想法对立法者来说并不新鲜。至少有四名参议员,包括民主党和共和党,在提问中讨论或支持创建新的监督机构的想法。

其次,Altman表示,政府应该为高功能人工智能模型制定安全标准(例如禁止模型进行自我复制),并创建模型必须通过的特定功能测试,例如验证模型产生准确信息的能力,或确保它不会产生危险内容。

第三,他敦促立法者要求与创作者或政府无关的专家进行独立审计,以确保人工智能工具在立法准则范围内运行。

例如,Marcus和Mongomery都主张要求人工智能创作者提供激进的透明度,以便用户始终知道何时与聊天机器人互动。马库斯讨论了“营养标签”的想法,创作者将解释用于训练其模型的组件或数据集。值得注意的是,Altman避免在他的监管建议中纳入透明度考虑。

欧洲的立法者正在进一步监管人工智能应用程序,欧盟正在决定是否将通用人工智能技术(ChatGPT等工具的基础)归类为“高风险”。由于这将使该技术受到最严格的监管,许多大型科技公司,如谷歌和微软都游说反对这种分类,认为这将扼杀创新。

避免类似的社交媒体问题

参议员们在听证会上申明,他们打算从过去在Facebook和Twitter等社交网络上的数据隐私和错误信息问题中吸取教训。

Blumenthal说:“国会未能在社交媒体上满足这一时刻。”“现在我们有义务在威胁和风险成为现实之前在人工智能上做到这一点。”

面对人工智能技术的不可知的未来,近十几名立法者在听证会上讨论了广泛的问题。每个人都强调了对人工智能影响的不同关注领域。

参议员Marsha Blackburn(田纳西州共和党)询问了对音乐家和艺术家的补偿,例如,他们的作品被用来训练模特,然后用他们的风格或声音创作类似的作品。参议员Alex Padilla(加利福尼亚州民主党)询问了语言包容性和为不同文化的人提供相同技术的问题。参议员Amy Klobuchar(明尼苏达州民主党)询问了对当地新闻机构的保护,以及参议员Lindsey Graham询问人工智能如何影响军用无人机并改变战争。其他主题包括评估集中在极少数企业权力的人工智能行业的风险,以及确保使用这些工具的儿童的安全。

阿尔特曼、马库斯和蒙哥马利都表示愿意在未来继续与政府合作,为这些问题找到答案,布卢门撒尔表示,这只是一系列委员会听证会中的第一次。

他说:“我感觉到,这里有参与的意愿是真诚和真实的。”


评论

您不能发表评论,可能是以下原因
1、登录后才能评论
2、作者关闭了评论