加州法律决定人工智能的未来

分享

其他推荐

加州一项试图规范大型前沿人工智能模型的法案,正在引发一场关于人工智能未来的激烈对峙。多年来,人工智能一直被分为“加速者”和“减速者”。加速者希望人工智能快速发展——快速行动并打破常规——而减速者则希望人工智能发展为了人类而放慢速度。当OpenAI 董事会短暂罢免 Sam Altman时,这场斗争成为全国关注的焦点,此后,许多人以人工智能安全的名义离开了这家初创公司。现在,加州的一项法案让这场斗争变得政治化。

SB 1047 是什么?

SB 1047是一项加州法案,该法案将要求大型人工智能模型提供商(例如 Meta、OpenAI、Anthropic 和 Mistral)对其人工智能系统可能造​​成的灾难性危险承担责任。该法案由州参议员 Scott Wiener 起草,于 5 月在加州参议院获得通过,并扫清了本周成为法律的另一大障碍。

我为什么要在乎?

它可能成为美国第一部真正具有约束力的人工智能法规,而且它正在加利福尼亚州实施,所有主要人工智能公司都位于那里。

维纳称该法案“为最强大、规模最大的人工智能系统的开发者制定了明确、可预测、符合常识的安全标准”。但并非所有人都这么认为。硅谷的许多人都发出警告,称这项法案将扼杀人工智能时代的到来。

SB 1047 实际上起什么作用?

SB 1047 要求人工智能模型提供商对任何“严重伤害”负责,特别指出他们在造成“大规模伤亡事件”中扮演的角色。虽然这听起来可能很奇怪,但这很重要,因为硅谷历来逃避对其伤害的大部分责任。该法案授权加州总检察长对这些公司采取法律行动,如果他们的某个人工智能模型对加州人造成严重伤害。

SB 1047 还包括一项“关闭”条款,该条款实际上要求人工智能公司在紧急情况下为人工智能模型创建一个终止开关。

该法案还在加州政府运营机构内设立了“前沿模型部门”。该部门将为这些前沿人工智能模型提供商“提供指导”,指导每家公司必须遵守的安全标准。如果企业不考虑该部门的建议,他们可能会被起诉并面临民事处罚。

谁支持这项法案?

除了维纳参议员,两位有时被称为“人工智能教父”的著名人工智能研究人员杰弗里·辛顿和约书亚·本吉奥也在该法案上署名。这两位在警告人工智能的危险方面非常杰出。

更广泛地说,这项法案符合 decel 的观点,他们认为人工智能有较高的概率会终结人类,因此应该受到监管。这些人大多是人工智能研究人员,并没有积极尝试将人工智能产品商品化,因为他们认为这可能会终结人类。

该法案由 Dan Hendrycks 领导的人工智能安全中心发起。他的团队于 2023 年 5 月发表了一封公开信,称人工智能对人类灭绝的风险应该像核战争或流行病一样受到重视。山姆·奥特曼、比尔·盖茨、格莱姆斯和许多有影响力的科技人士签署了这封信。他们是一个有影响力的团体,也是推动这项法案的关键人物。

2023 年 3 月,decels 呼吁“暂停”所有人工智能开发,以实施安全基础设施。虽然这听起来有些极端,但人工智能社区中有很多聪明人确实相信人工智能可能会终结人类。他们的想法是,如果人工智能有可能终结人类,我们应该严格监管,以防万一。

这很有道理。那么谁反对 SB 1047?

如果你在 X,感觉硅谷的每个人都反对 SB 1047。风险投资家、初创公司创始人、人工智能研究人员和开源人工智能社区的领导者都讨厌这项法案。我通常会把这些人归类为加速器,或者至少,他们在这个问题上是这么认为的。他们中的许多人从事人工智能业务,但有些人也是研究人员。

普遍的看法是,SB 1047 可能会迫使 Meta 和 Mistral 等 AI 模型提供商缩减或完全停止其开源工作。该法案要求他们对使用其 AI 模型的不良行为者负责,而这些公司可能不会承担这一责任,因为限制生成式 AI 很困难,而且产品具有开放性。

“它将彻底扼杀、摧毁和减缓开源初创企业生态系统,”A16Z 普通合伙人兼 Mistral 董事会董事 Anjney Midha 在接受 Gizmodo 采访时表示。“这项法案就像试图限制印刷机的发展,而不是专注于印刷机应该做的事情,即印刷机的用途。”

伯克利大学计算机科学教授兼 Databricks 执行主席 Ion Stoica 在接受采访时表示:“开源是我们保持领先地位的最大希望,它能为新兴模型带来透明的安全测试,而不是让少数强大的公司秘密控制人工智能。”

Midha 和 Stoica 并不是唯一将人工智能监管视为行业生存的人。开源人工智能多年来为硅谷创业公司提供了最繁荣的动力。SB 1047 的反对者表示,该法案将使大型科技公司的封闭型现有企业受益,而不是蓬勃发展的开放生态系统。

“我真的认为这是限制开源 AI 开发的一种方式,是减缓 AI 发展更广泛战略的一部分,”AGI House 创始人 Jeremy Nixon 表示,AGI House 是硅谷开源 AI 黑客马拉松的中心。“这项法案源于一个非常希望全面暂停 AI 发展的社区。”

这听起来很技术性。立法者能解决所有问题吗?

这绝对是技术问题,而且也带来了一些问题。SB 1047 仅适用于“大型”前沿模型,但多大才算大型?该法案将其定义为在 10^26 FLOPS 上训练的 AI 模型,训练成本超过 1 亿美元,以今天的标准来看,这是一个特定且非常大的计算能力。问题在于,AI 发展非常快,与 2024 年的标准相比,2023 年最先进的模型看起来微不足道。对于发展如此迅速的领域来说,在沙地上插一面旗帜并不好。

目前还不清楚是否有可能完全防止人工智能系统出现不当行为。事实是,我们对 LLM 的工作原理知之甚少,而当今 OpenAI、Anthropic 和 Google 的领先人工智能模型一直处于越狱状态。这就是为什么一些研究人员说监管机构应该关注坏人,而不是模型提供者。

“对于人工智能,你需要规范用例、行为,而不是模型本身,”纽约大学与 Yann Lecunn 一起研究人工智能的助理教授 Ravid Shwartz Ziv 在接受采访时表示。“世界上最好的研究人员可以在一个人工智能模型上花费无限的时间,但人们仍然能够对其进行越狱。”

该法案的另一个技术部分涉及开源人工智能模型。如果一家初创公司采用了 Meta 的 Llama 3(最受欢迎的开源人工智能模型之一),并将其微调为危险的东西,那么 Meta 是否仍要对该人工智能模型负责?

目前,Meta 的 Llama 还未达到“覆盖模型”的门槛,但未来很可能会达到。根据这项法案,Meta 似乎肯定会承担责任。但有一个警告,即如果开发人员花费超过 25% 的成本来训练 Llama 3 进行微调,那么该开发人员现在就要承担责任。尽管如此,该法案的反对者仍然认为这不公平,不是正确的做法。

快速提问:人工智能真的有言论自由吗?

不清楚。人工智能社区的许多人将开源人工智能视为一种言论自由(这就是 Midha 将其称为印刷机的原因)。前提是人工智能模型底层的代码是一种表达形式,模型输出也是表达形式。历史上,代码在多个情况下都属于第一修正案的范畴。

三位法学教授在Lawfare 的一篇文章中指出,人工智能模型并不完全是言论自由。首先,他们说,构成人工智能模型的权重不是由人类编写的,而是通过大量的机器学习操作创建的。人类甚至几乎无法读懂它们。

至于前沿人工智能模型的输出,这些系统与社交媒体算法略有不同,社交媒体算法过去被认为属于第一修正案的范畴。人工智能模型并不完全持观点,它们会说很多东西。因此,这些法学教授表示,SB 1047 可能不会侵犯第一修正案。

下一个是什么?

该法案即将于 8 月进行表决,届时将送交州长加文·纽森 (Gavin Newsom)。但要通过该法案,还需要克服几个关键障碍,即便如此,由于硅谷的压力,纽森也可能不会签署该法案。一家大型科技贸易集团刚刚致信纽森,要求他不要签署 SB 1047。

然而,纽森可能想为美国在人工智能方面开创先例。如果 SB 1047 生效,它可能会彻底改变美国的人工智能格局。

更正,6 月 25 日:本文的先前版本没有定义什么是“严重损害”。它还指出 Meta 的 Llama 3 可能会受到影响,但目前 AI 模型还不够大。它很可能在未来受到影响。最后,Frontier 模型部门被转移到加州政府运营机构,而不是技术部。该部门目前没有执法权。

(机器翻译,轻度译后编辑,仅供参考。)

编辑:杨馨玥

原文链接

Was it helpful ?

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注