背景
2024年3月13日,欧盟通过了《欧盟人工智能法案》,但此举只会让欧洲地区未来的人工智能(AI)发展落后于全球。该法案声称要“统一”欧盟地区内的AI开发和使用方法,但这是一种“限制性的”而非完善性的解决方案。这不是创新的行为,而是管制的行为。而管制并不能让你在竞争中前进。
2024年3月13日,欧盟通过了《欧盟人工智能法案》,但此举只会让欧洲地区未来的人工智能(AI)发展落后于全球。该法案声称要“统一”欧盟地区内的AI开发和使用方法,但这是一种“限制性的”而非完善性的解决方案。这不是创新的行为,而是管制的行为。而管制并不能让你在竞争中前进。
《欧盟人工智能法案》本质上是欧盟对伦理人工智能的解读。我从来热衷于伦理人工智能构想。这个概念充其量是误导,最糟的是,它在胡说八道,想用这个概念来赚钱。我支持负责任的人工智能,这个概念实际上只是负责任产品开发的延伸,它的重点是确保产品按设计运行,不会造成不想要的负面结果。实现方法包括红队测试和渗透测试等,对产品进行压力测试。
《欧盟人工智能法案》
下文首先将总结一下《欧盟人工智能法案》的要点,然后讨论为什么它对AI的发展没有帮助,以及为什么我反对有关伦理人工智能的大量构想。
首先,欧盟将AI定义为“……一个基于机器的系统,旨在以不同程度的自主性运作,在部署后可能表现出适应性,同时,为了明确或隐含的目标,从接收到的输入中推断如何生成输出,例如生成预测、内容、建议、决策,可以影响物理或虚拟环境。”
基于这个定义,《欧盟人工智能法案》可以总结为以下几个关键点:
- 该法案本质上是一个风险分类系统,用于对影响人类结果的人工智能用例进行分类,包括禁止、高风险、低风险。
- 通用AI模型,如OpenAI的ChatGPT和Google的Gemini,将从系统风险角度单独分类。
- 被禁止的AI解决方案,是那些被认为对人们的安全、保障、基本权利构成不可接受风险的解决方案。包括用于社会评分、工作场所情感识别、“歧视性”信息推断(如种族、宗教信仰、性取向、政治倾向),以及类似《少数派报告》的预测性警务(预测犯罪可能性)。
- 高风险AI解决方案,是用于身体和健康安全情况下的解决方案,如车辆AI、医疗设备AI、重要基础设施AI。此外,还包括用于招聘、生物识别监控、金融授权(如信用评估)、医疗保健授权(如保险评估)的AI解决方案。
- 低风险AI解决方案,包括聊天机器人、AI生成的视频/音频/图像、垃圾邮件过滤、产品推荐系统、个人和行政任务自动化。
对AI的恐惧
《欧盟人工智能法案》出台的部分原因,似乎是受到某种对AI被“武器化”,甚至“失控”的恐惧所导致的。这个法案真的在试图放慢AI发展的步伐吗?它真的在试图防止岗位受到影响或被取代吗?它真的是出自于伦理或是保护主义的考虑吗?
重要的是要注意,AI并没有做任何人类没有做过的事情。人类已经基于对AI的观察,对其进行社会评分;已经通过介入社区和秘密调查,开展了预测性警务工作;已经在招聘面试中进行各种背景调查和甚至是干涉性剖析。所有AI解决方案所做的只是让工作的开展更一致、更可靠、错误更少,速度快得多。同样重要的是,车辆安全、医疗保健安全、基础设施安全已经存在大量相关规定。为什么需要特别指出对AI的规定呢?
AI解决方案不做决策;它们只是自动运行并执行决策。目标结果和决策参数仍然完全由人类设计。认为AI可能很快不受控制和并具有危险性,这种恐惧简直无稽之谈。没有任何证据支持这样的说法!通往通用人工智能(AGI)的道路还很长,即使到了那一天,又怎样呢?我们将AGI与意识和感知混为一谈,而这两者根本没有任何关联。即使AI最终产生了意识,会是(或者类似)我们理解的那种意识吗?还是它的意识会是全新的?你知道蝙蝠如何感受意识吗?(此处引用一个经典论点。)
为什么我们给AI制定了比对人类更高的质量门槛,尽管已经有如此多证据表明,基于AI的计算准确性超过了基于人类的计算?我们似乎认为AI的能力较差,因此必须持有更高标准。《欧盟人工智能法案》所要求的合规要求有双标之嫌,因为我们并没有要求人类决策必须达到同样水平。
伦理人工智能是转移注意力的手段
在AI研究、开发、实施中,人们经常将伦理人工智能和负责任人工智能这两个术语互换使用。但它们并不相同。我在数据分析方面的训练,使我对语义和解释很敏感;这很重要。
伦理、道德、责任三者之间有何区别?
- 伦理是将正确或错误的行为实施进行了系统化规定;它往往具有法律含义。道德是文化和宗教上形成的,对正确或错误的感知,但可能不具有普遍一致性。例如,安乐死在某些文化中被认为是道德上错误的,但在伦理上可以是正确的。
- 另一方面,责任是问责和义务。例如,我可以处于对自己和家庭的责任感,选择不参与并远离正在发生的犯罪,但在某些国家中,这种行为根据法律可能被视为不伦理甚至是不道德的。
显然,伦理和道德都是不断发展的社会基础。即使是人权,也是不断发展的社会基础。不久我们可能会看到“数字访问权”这个概念被确立。而这些建构出来的伦理和权利需要与技术和人工智能共同进步。
对于像AI这样的技术,我认为让开发变得更容易,增加广泛应用,将能自然改善对AI的管控;市场供需的力量和现有反垄断法已经推动AI朝着更加透明的方向发展。盈利性组织无一不追求最大化自身利益,竞争只会提高AI的正面而非负面效用。真正的危险可能在于非营利组织和政府组织的计划中,我们最好将我们的聪明才智用来明确这些机构应该如何负责任地使用AI。
拥抱负责任的人工智能
责任全都关乎问责和义务。在AI领域,我们应该定义防止滥用的安全措施,而非因为害怕被滥用而禁止或限制用例。负责任的人工智能是负责任产品开发的具体应用情景延伸。对负责任产品开发的法律框架已经存在。责任意味着保证产品按预期运行,并通过内置安全功能,将误用风险降至最低。只要有防止滥用的保障措施,我不反对使用AI进行招聘。我明白,在预测合适人选方面,AI会犯一些错误,但与完全由人类来处理相比错误会更小,而且只会有益于社会。无法减少人类招聘错误的AI解决方案,甚至不会被推向市场,不需要额外的“分类”来保护我免受其害。
AI的作用在于分辨。分辨指在两个或多个对象或群体之间进行区分。AI正努力根据数据属性上携带的信息信号,尽可能无误地做出区分。我们关注的是错误区分(其表现形式之一就是偏见),即信息信号不足以支持AI进行区分。测试偏见是产品质量保证的一部分,即产品按预期执行。
考虑一个假设案例:影子AI。顾名思义,这是个超个性化通用AI,是我们永远的伴侣和助手。在不久的将来,可以预见影子AI代表我们进行合作和协同,大大提高生产力。随着人口增长放缓,确实需要影子AI的存在。现在,我们的影子AI显然需要在工作和娱乐时识别我们情绪,作为它“负责任”的设计的一部分。这个案例将如何与《欧盟人工智能法案》相悖?
结论
我不认为《欧盟人工智能法案》会成为欧盟所希望的全球标准。我坚信该法案将放缓欧盟内部对AI的研究、开发和实施;扼杀该地区对AI使用,从长远来看,还会损害自身利益。我们都有义务推动AI发展;创造是我们本性。无论我们如何看待,人类都注定要灭绝——小行星撞击、气候变化、太阳爆炸等等。作为碳基生物,我们并不适合太空旅行,而且无法避免即将到来灭绝。
但或许AI可以。
(机器翻译,轻度译后编辑,仅供参考。)
编辑:张湄婕