人工智能(AI)的使用正在迅速增加,它对我们日常生活的影响不容忽视。然而,能力越大,责任越大,因此以负责任、可信赖的方式开发和使用人工智能至关重要。
命令和条例
各国政府已经认识到这一需求,并开始实施相关法规来指导人工智能的发展。2023年10月30日,美国总统拜登签署了《关于安全、可靠地开发和使用人工智能的行政命令》。该命令强调,必须以尊重公民权利、隐私和人类价值观的方式开发人工智能。
不久之后,2023年12月8日,欧盟议会和理事会就《欧盟人工智能法案》达成临时协议,该法案旨在为值得信赖的人工智能创建一个法律框架——解决透明度、问责制和偏见等问题。它还为被视为高风险的人工智能系统引入了一系列要求,包括用于医疗保健、交通和执法领域的人工智能系统。
在新的人工智能法规不断涌现的同时,我们不应忽视仍然生效的先前通过的法规,例如《通用数据保护条例》(GDPR)和《儿童在线隐私保护法》(COPPA),这些法规要求开发人员在人工智能开发的每个阶段都要考虑数据隐私和同意问题。
确保合规
为了遵守这些命令和法规,人工智能开发者必须确保人工智能训练数据的透明度、伦理收集和保护,同时维护个人权利。为此,人工智能开发人员应实施以下几项针对具体数据的策略:
确保人工智能训练数据具有代表性和多样性:包含广泛的数据源,准确代表将与人工智能系统互动的多元化用户群体,以避免产生偏见或歧视性的结果。
实施数据隐私和安全措施:保护数据,尤其是敏感数据至关重要。实施强有力的安全措施来保护个人信息,并确保符合数据保护法规。
提供数据透明度:数据收集过程要透明,以建立对人工智能的信任和信誉。用户应清楚地了解他们的数据是如何收集、使用和存储的。
实施数据管理:开发并实施数据管理政策和程序,为数据管理提供框架。这些政策和程序应涵盖数据质量、访问、保留和共享,以保持数据的一致性、准确性和完整性。
建立处理数据事故的机制:实施清晰明确的流程,有效处理数据泄露和事故,包括事故响应计划、通信协议和通知受影响个人或当局的程序。
教育员工:为员工提供充分的有关数据隐私、职业道德和负责任的数据处理实践的培训,以确保每个人都了解自己在保护数据方面的角色和责任。
与利益相关者合作:定期收集被处理数据的个人(包括客户和相关社区)的反馈意见,以解决他们关注的问题,将多元化的观点纳入数据实践,并提高数据处理的透明度、问责制和响应能力。
持续监控和评估数据实践:定期进行数据审计和评估,以识别新兴数据风险,应对不断变化的数据挑战,并确保持续遵守道德和监管标准,包括了解新兴技术、最佳实践和法规的最新情况。
在开发过程中融入伦理原则:在开发过程中纳入公平、非歧视和人类监督等伦理考虑因素,以避免偏见或歧视性结果的长期存在,并确保以负责任和合乎伦理的方式使用数据。
特殊考虑因素
随着新法规的出台,重要的是要认识到以前常用的一些数据实践现在可能会使开发人员面临潜在的法律后果。
网络搜索:虽然从互联网上自动抓取数据可以快速收集大量数据,但这通常绕过了同意或权限——直接与数据隐私和版权法规相冲突。
社交媒体数据集:使用社交媒体平台的数据来训练人工智能会带来重大的隐私和同意问题。这些平台通常包含个人敏感信息,因此,未经社交媒体用户明确、知情同意就使用社交媒体数据集,可能会违反隐私法并损害信任。
现成数据集:人工智能开发人员必须恪尽职守,进行彻底审计,并了解现成数据集的收集和处理方式,以确保符合人工智能法规。
可解释性:根据欧盟人工智能法案,用户有权了解人工智能系统是如何做出决定的,这对现有复杂的黑箱式机器学习模型提出了挑战。在人工智能开发、数据准备、培训和部署过程中确保可解释性和透明度不再是可有可无的。
负责任地利用人工智能的变革力量
人工智能的进步不断释放各种可能性,并以前所未有、出人意料的方式改变着我们的世界。 然而,确保人工智能值得信赖对于负责任地利用其潜力至关重要。
监管合规有助于确保用户的安全、隐私和权利,同时建立坚实的信任基础。通过在准备人工智能训练数据时优先考虑多样性、隐私、道德和透明度,您可以确保您的人工智能值得信赖并对所有人有益。
计划开展生成式人工智能项目吗?下载我们的生成式人工智能决策路线图,了解为确保项目成功而应预先做出的关键决策。
(机器翻译,轻度译后编辑,仅供参考)
编辑:杜曼曼