微软加入亚马逊、谷歌、OpenAI等科技巨头的AI安全承诺

分享

其他推荐

在上周的首尔AI峰会上,十几家处于当今生成式AI浪潮前沿的公司达成了一项“AI安全承诺”。

微软、OpenAI、亚马逊和谷歌等16家组织表示愿意监督其AI开发流程,以限制AI的滥用,促进负责任的部署。据与韩国共同举办此次峰会的英国政府发布的新闻稿称,这些公司的参与为“全球首次”。

这些公司同意了《前沿AI安全承诺》文件中列出的三大主要目标。据微软总裁布拉德·史密斯(Brad Smith)称,这是一项“对如何通过安全框架应对AI开发前沿可能出现的风险的重要承认,特别是在AI能力进步时。”

在文件的第一个目标中,要求各组织“在开发和部署其前沿AI模型和系统时有效识别、评估和管理风险”。

关于这一目标,许多签署方已经有内部要求,旨在确保其AI技术的安全性。例如,微软自2016年起遵循其负责任的AI标准,其Copilot开发过程包括广泛的红队测试。Meta等公司则在独立探索对其AI系统生成内容添加“水印”的方法,以限制虚假信息,特别是考虑到今年的选举。而OpenAI,被广泛认为是生成式AI的风向标,最近成立了新的AI安全委员会,尽管之前的AI安全委员会已被解散。

然而,关键在于,第一个承诺的一项原则是,各组织必须同意终止无法挽救的AI系统的开发。

具体来说,他们必须规定“模型或系统带来的严重风险除非得到充分缓解,否则将被视为不可容忍的阈值”,并“承诺如果无法将风险保持在阈值以下,则不开发或部署该模型或系统”。

这些公司将在未来几个月内定义其终止开发的阈值,在2025年2月法国AI行动峰会之前发布正式的安全框架。

 文件中列出的另外两个目标是:

  • 组织对安全开发和部署其前沿AI模型和系统负有责任。

  • 组织对保障前沿AI安全的措施对外部行为者(包括政府)保持适当的透明度。

文件还列出了签署方承诺应用的若干AI安全最佳实践(如果还尚未应用的话)。其中包括红队测试、添加水印、激励第三方测试、创建防范内部威胁的保障措施等。

英国首相里希·苏纳克(Rishi Sunak)表示:“这些承诺确保世界领先的AI公司在开发安全AI的计划上的透明度和问责制。”然而,文件中列出的承诺不具法律效力;事实上,它们被表述为“自愿承诺。”

以下是签署方的完整名单:

  • 亚马逊

  • Anthropic

  • Cohere

  • 谷歌/谷歌DeepMind

  • G42

  • IBM

  • Inflection AI

  • Meta

  • 微软

  • Mistral AI

  • Naver

  • OpenAI

  • 三星电子

  • 技术创新研究所

  • xAI

  • 智谱AI

(机器翻译,轻度译后编辑,仅供参考)

编辑:田逸云

原文链接

Was it helpful ?