随着AI法案于2024年3月13日发布,欧盟率先监管有望永远改变我们生活的颠覆性人工智能革命。成为第一无疑具有分量和重要性,为其他国家树立了国际基准(许多国家已经在效仿欧洲的做法)。
新的条例将适用于所有为欧洲市场生产人工智能(AI)技术工具的公共和私营公司,不管这些公司是欧洲的还是非欧洲的:所以即使是欧洲的五巨头,如果他们想继续在欧洲运营,就必须适应。预计新法规的影响至少与《通用数据保护条例》以及《机械指令》相当。
1.《人工智能法》对“人工智能系统”的定义
《人工智能法案》主要基于立法文本中对人工智能的定义。《人工智能法案》将人工智能定义为“使用附件一中列出的一种或多种技术和方法开发的软件,并且可以针对一组给定的人类定义的目标,生成影响其交互环境的输出,如内容、预测、建议或决策”。(第1篇第3条)。
2.《人工智能法案》的实施将对谁产生影响?
该法规还将适用于人工智能价值链的其他成员,如进口商、分销商、制造商和授权代表。第3条为这些群体中的每一个都保留了具体的定义。例如,任何人开发或已经开发了一个人工智能系统,以其名称或商标将其投放市场或投入服务,无论是收费还是免费,都将被视为“供应商”。同时,任何在其授权下使用人工智能系统的实体都被视为“运营商”,除非人工智能系统是在非专业的个人活动中使用的。
3.豁免
除了欧洲法律范围之外的领域,该法规将不适用于出于军事、国防或国家安全目的的人工智能系统,用于科学研究和开发目的的人工智能系统,或在自由和开源许可下发布的人工智能系统(除非存在风险)。与人工智能系统相关的研究、测试和开发也被排除在新规则的范围之外。对于使用人工智能系统作为纯个人、非专业活动的一部分的自然人,也有一个家庭豁免,再次采用类似GDPR的原则和机制。
4.风险分类
人工智能法案根据与技术相关的风险,而不是与技术的使用相关的风险,对人工智能系统进行分类。在这方面,人工智能系统被分类为:
-
风险最小(例如,视频游戏、流媒体平台推荐和电子商务中使用的系统);没有设置任何要求;
-
风险低;设置了透明度要求,这意味着用户需要意识到他们正在与人工智能系统进行交互;
-
高风险;将该系统投放市场需要特别授权;
-
不可接受的风险;这种系统是被禁止的。
特别禁止使用潜意识或操纵技术的人工智能系统;基于年龄、残疾或社会经济地位剥削弱势群体;根据种族、政治观点、性取向、社会行为或性格特征对个人进行分类;或者在公共场所使用实时远程生物识别工具。也禁止人工智能系统使用风险评估工具,仅根据个人资料或性格特征预测犯罪行为,或通过无针对性的图像抓取创建或扩展面部识别数据库。
5.遵约
就像《通用数据保护条例》,《人工智能法案》将在不同的时间生效。这使得公司和私人助理能够熟悉该法规。然而,及早遵守是明智的,因为市场倾向于奖励及早遵守。2018年5月,当《通用数据保护条例》在两年前生效并被大多数人忽视时,情况并非如此。然而,时间很短。人工智能法案禁止的系统必须在人工智能法案实施后的六个月内逐步淘汰。一般治理规则将在12个月内适用于所有公司和私人助理。该条例将在颁布后两年内完全适用,包括针对高风险系统的规则。
6.处罚
会员国将基于基准条件决定处罚。对于与被禁止的做法或不符合数据要求相关的违规行为,罚款最高可达3500万欧元,或上一年全球年度总营业额的7%。对于不遵守该法规的任何其他要求或义务,包括违反通用模型人工智能的规则,罚款最高可达1500万欧元或上一年全球年度总营业额的3%。任何违规行为的最高罚款为7%。应请求向认证机构和国家主管当局提供不正确、不完整或误导性信息可能会导致500万或上一年全球年营业额1.5%的罚款,以较高者为准。
7.各组织应该做些什么?
公司应该对他们使用人工智能系统识别任何高风险系统的软件进行普查。然后,人工智能级别的风险评估是必要的,以确定符合法规的行动。对于低风险系统,提供商可以自愿采用可靠人工智能的要求,并遵守行为准则。这种方法旨在平衡创新和风险缓解,同时避免低风险技术的过度监管负担。相比之下,运行高风险人工智能系统的组织将面临更严格的要求。它们必须经过合规性评估,以证明符合法规中概述的可靠人工智能的强制性要求,然后才能销售或普遍提供。对于被贴上安全、可靠和透明标签的高风险人工智能系统,必须满足数据质量、文档、可追溯性、人工监督、准确性、网络安全和系统健壮性的要求。
(机器翻译,轻度译后编辑,仅供参考)编辑:陈驭格