当人工智能应用出错时,它们可能会出非常非常大的问题。因此,我们有义务确保负责任地开发人工智能——我们要了解人工智能开发的道德影响,并尽一切可能使其对个人、社区和整个社会既有效又公平。
为协助这一进程,各种标准机构正在制定与人工智能相关的标准,包括体现负责任人工智能原则和流程的标准。2023年12月,全球首个人工智能管理系统标准ISO/IEC 42001发布,为负责任的人工智能开发和使用提供了指导框架。
负责任人工智能的原则
甚至在本标准发布之前,许多认真对待人工智能伦理影响的组织就已经制定了自己的负责任人工智能原则。虽然他们可能会对类似的概念使用不同的术语,或以不同的方式进行归类,但相同的主题却一再出现,这表明他们对构成负责任人工智能基础的原则达成了普遍的高层共识。这些原则包括:
透明度。有关创建和实施人工智能的一切,包括人工智能模型如何做出决策,都应清晰明了,让所有利益相关者都能理解。
公平性和包容性。人工智能模型的设计应代表所有用户群体,公平对待所有个人,以避免任何形式的偏见或歧视。
隐私与安全。开发和使用人工智能的个人应尊重和保护个人控制其个人信息的权利,并应采取适当行动保护敏感数据,防止任何形式的未授权访问。
安全性和可靠性。人工智能模型应可靠运行,同时确保所有用户和更广泛环境的安全。任何错误性能或故障都应可检测和纠正,并将干扰或伤害降至最低。
问责制。开发人工智能的个人必须对他们所创建的人工智能模型的使用方式以及模型的影响和后果负责。
将负责任人工智能原则应用于人工智能训练数据
数据是人工智能开发的基础,因此负责任的人工智能首先要负责任地准备人工智能训练数据。以下是一些最佳实践:
透明度。确保所有数据方法清晰易懂。您应能够提供有关数据来源、收集方式以及使用和处理方式的详细信息。
公平性和包容性。积极采取措施,消除因数据问题产生的偏见。这包括仔细审查数据来源,准备多样化和有代表性的数据(以及其他数据质量要素),并通过对培训数据进行必要的修改来缓解培训过程中发现的问题。
隐私与安全。始终以尊重个人隐私的方式处理人工智能数据。这包括遵守数据隐私法,必要时获得知情同意,以及实施强大的安全措施,如加密、访问控制和定期安全审计,以确保个人身份信息(PII)的安全存储和传输。您还可以使用数据匿名化或向数据中注入噪音等技术来删除或隐藏数据集中包含的PII。
安全可靠。仅从可信来源收集人工智能训练数据,并在使用前彻底验证和清理所有数据,采取措施检测和处理任何不准确或不一致之处。您还需要一种方法来添加相关的新数据,以跟上变化。其他负责任人工智能的原则在这里也同样适用,因为人工智能模型只有在不存在偏见和不受可能危及隐私的安全漏洞的情况下,才能可靠或保护用户的安全。
问责制。详细记录数据收集、处理和使用情况,并实施严格的审计流程,以监测和评估数据相关流程是否符合负责任人工智能的原则。
大局观
当然,负责任人工智能的原则不仅仅适用于准备人工智能训练数据。它们必须应用于人工智能开发、实施、使用和管理的每一个步骤,同时考虑到对所有利益相关者——也就是我们所有人——的道德影响。 我们需要对人工智能采取全面的方法,以确保负责任地开发应用,并为社会做出积极贡献。
请联系我们的TrainAI团队,了解我们如何负责任地准备人工智能训练数据,以满足您独特的人工智能需求。
(机器翻译,轻度译后编辑,仅供参考)
编辑:杜曼曼