在上周的首尔AI峰会上,十几家处于当今生成式AI浪潮前沿的公司达成了一项“AI安全承诺”。
微软、OpenAI、亚马逊和谷歌等16家组织表示愿意监督其AI开发流程,以限制AI的滥用,促进负责任的部署。据与韩国共同举办此次峰会的英国政府发布的新闻稿称,这些公司的参与为“全球首次”。
这些公司同意了《前沿AI安全承诺》文件中列出的三大主要目标。据微软总裁布拉德·史密斯(Brad Smith)称,这是一项“对如何通过安全框架应对AI开发前沿可能出现的风险的重要承认,特别是在AI能力进步时。”
在文件的第一个目标中,要求各组织“在开发和部署其前沿AI模型和系统时有效识别、评估和管理风险”。
关于这一目标,许多签署方已经有内部要求,旨在确保其AI技术的安全性。例如,微软自2016年起遵循其负责任的AI标准,其Copilot开发过程包括广泛的红队测试。Meta等公司则在独立探索对其AI系统生成内容添加“水印”的方法,以限制虚假信息,特别是考虑到今年的选举。而OpenAI,被广泛认为是生成式AI的风向标,最近成立了新的AI安全委员会,尽管之前的AI安全委员会已被解散。
然而,关键在于,第一个承诺的一项原则是,各组织必须同意终止无法挽救的AI系统的开发。
具体来说,他们必须规定“模型或系统带来的严重风险除非得到充分缓解,否则将被视为不可容忍的阈值”,并“承诺如果无法将风险保持在阈值以下,则不开发或部署该模型或系统”。
这些公司将在未来几个月内定义其终止开发的阈值,在2025年2月法国AI行动峰会之前发布正式的安全框架。
文件中列出的另外两个目标是:
-
组织对安全开发和部署其前沿AI模型和系统负有责任。
-
组织对保障前沿AI安全的措施对外部行为者(包括政府)保持适当的透明度。
文件还列出了签署方承诺应用的若干AI安全最佳实践(如果还尚未应用的话)。其中包括红队测试、添加水印、激励第三方测试、创建防范内部威胁的保障措施等。
英国首相里希·苏纳克(Rishi Sunak)表示:“这些承诺确保世界领先的AI公司在开发安全AI的计划上的透明度和问责制。”然而,文件中列出的承诺不具法律效力;事实上,它们被表述为“自愿承诺。”
以下是签署方的完整名单:
-
亚马逊
-
Anthropic
-
Cohere
-
谷歌/谷歌DeepMind
-
G42
-
IBM
-
Inflection AI
-
Meta
-
微软
-
Mistral AI
-
Naver
-
OpenAI
-
三星电子
-
技术创新研究所
-
xAI
-
智谱AI
(机器翻译,轻度译后编辑,仅供参考)
编辑:田逸云