我们目前正处于监管负责任地使用人工智能(AI)的初始阶段。2023年3月,NIST发布了人工智能风险管理框架,10月30日,拜登总统发布了关于安全、可靠和值得信赖的人工智能的行政命令。此外,2023年12月18日,ISO发布了ISO/IEC 42001 – 信息技术 – 人工智能 – 管理系统,2024年3月13日,欧洲议会批准了人工智能法案,这确保了安全和遵守基本权利,同时促进了创新。
所有这些举措都有一个共同的目标:提供支持人工智能用于研究、个人服务和商业的政策和措施,同时管理相关风险并确保安全和基本权利。
什么是ISO/IEC 42001:2023?
ISO/IEC 42001:2023是即将出版的一系列关于人工智能的ISO出版物的一部分。另一份出版物,ISO/IEC DIS 42005(仍在开发中)将“为执行人工智能系统影响评估的组织提供指导,这些评估针对的是可能受到人工智能系统及其预期和可预见应用影响的个人和社会”。
ISO/IEC 42001:2023和类似的倡议旨在保护人工智能系统在其整个生命周期的各个方面。这些方面包括安全性、可靠性、保障措施、公平性、透明度、数据质量和系统质量。最终目标是创建一个人工智能管理系统(AIMS)。
ISO/IEC 42001:2023是干什么用的?
ISO/IEC 42001:2023的目的是通过以下方式确保人工智能系统的负责任开发和使用:
- 促进可靠、透明和负责任的人工智能系统的开发和使用;
- 强调人工智能系统使用中的道德原则和价值观,如公平、不歧视和尊重隐私;
- 帮助组织识别和减轻与实施人工智能相关的风险,并确保采取适当的缓解措施;
- 鼓励组织在人工智能的设计和实施中优先考虑人类福祉、安全和用户体验;
- 帮助组织遵守隐私法律法规或利益相关方义务。
该标准要求在整个产品或服务交付生命周期中应用适当的控制。人工智能是动态的,如果不加以控制,可能会导致不可预测的结果。因此,不断审查这些控制措施至关重要。
这是给谁用的?
ISO/IEC 42001标准适用于任何开发、使用或提供基于人工智能的产品或服务的公共和私人组织。
该标准遵循高层结构模型(HLS),这样就可以轻松地与其他管理系统标准集成,例如ISO/IEC 27001:2022,ISO/IEC 27701:2019,以及ISO 9001:2015。
实施要求是什么?
为了成功地实施一个AIMS,组织必须考虑以下要求:
- 组织背景:一个组织应该理解实现人工智能的目的以及如何管理这样的系统。捕捉利益相关者的期望并定义人工智能目标的范围是很重要的。
- 领导力:一个组织应该定义领导和目标的实施。此外,他们应该制定并发布概述角色、职责和权限的人工智能政策。
- 规划:组织应该进行风险和影响评估,并建立人工智能目标。他们还应实施适当的变革管理程序。
- 支持:组织必须确定并提供专门知识、意识、沟通方法以及记录在案的信息存储和控制方面的资源。
- 可操作的:组织必须确定业务规划和控制。他们还应该进行人工智能风险评估、风险处理和人工智能系统影响评估。
- 绩效评估:组织必须监控、测量、分析和评估其人工智能系统的风险和控制。应根据评价结果明确界定和发展对内部审计和管理审查的期望。
- 改进:各组织应为AIMS的实施建立反馈方法,并考虑改进机会。随着不符合项和纠正措施的评估,评估过程应持续进行。
为什么它很重要?
像ISO/IEC 42001:2023这样的人工智能管理系统使您的组织能够最大限度地发挥人工智能的优势,同时降低风险并建立信任。它可以帮助你:
- 提高AI应用程序的质量、安全性和可靠性。例如,实施该标准的数据质量要求可以帮助识别和解决训练数据中的偏差,从而实现更公平、更准确的人工智能输出。
- 增加公众和利益相关者对你的人工智能实践的信任。证明符合这一国际公认的标准可以让利益相关者放心,明白您的组织认真对待负责任的人工智能开发。
- 通过使用高效的人工智能流程降低开发成本。全面的规划和风险评估有助于尽早识别和解决潜在问题,从而在开发过程中节省时间和资源。
- 确保遵守相关法规。随着人工智能法规的不断发展,采用ISO/IEC 42001:2023可以帮助您的组织保持领先地位,并展示合规性努力。
- 满足利益相关者对负责任的人工智能使用的期望。实施道德原则并确保人工智能开发的透明度符合利益相关者对负责任和值得信赖的技术的期望。
- 利用人工智能开发标准的系统方法提高组织的效率和风险管理.这种方法可以简化流程,识别和降低风险,并最终提高整体效率。
通过实施这一标准,您的组织可以在不断发展的人工智能领域保持领先地位。这将确保负责任和有益地使用这一强大的技术。
(机器翻译,轻度译后编辑,仅供参考。)
编辑:王云菲