读书报告|美国参议院人工智能工作组政策路线图(文末英文原文链接~)
引言
在第118届国会初期,美国参议院成立了AI工作组,旨在探讨AI在各领域的深刻变革及潜在风险。由于AI技术跨多个委员会管辖,工作组旨在补充传统政策过程,通过深入对话帮助参议院理解AI政策。
2023年,工作组举办了教育简报和首次全参议员保密简报,以及九次双党AI洞察论坛,涵盖AI的关键领域,并邀请超过150名专家参与。这些论坛促进了开放讨论,帮助工作组理解AI政策环境,并为政策路线图提供信息。
AI政策路线图确定了工作组认为值得两党考虑的共识领域,旨在推动新的和持续的AI立法考虑,确保美国在AI创新前沿保持领先,并让美国人受益。工作组鼓励委员会合作,考虑AI与其他技术的协同作用,并建议行政机构及时向国会提供AI相关活动的更新。
美国参议院AI工作组通过深入活动和讨论,为理解和塑造AI未来政策环境做出了重要贡献,为立法和合作提供了宝贵指导。
九次论坛主题
1. 开幕论坛
2. 支持美国人工智能领域创新
3. 人工智能与劳动力
4. 人工智能的高影响应用
5. 选举与民主
6. 隐私与责任
7. 透明度、可解释性、知识产权与版权
8. 防范人工智能风险
9. 国家安全
未来之路
基于联邦层面的现有AI倡议,AI政策路线图明确了第118届国会及未来值得参议院两党关注的共识领域。AI工作组致力于挖掘AI潜力,同时降低其风险。此路线图旨在推动两党AI立法,保持美国技术创新领先,并让美国人从AI中获益。
AI工作组建议
跨委员会合作:鉴于AI政策的跨管辖区特性,鼓励委员会加强合作,明确关键术语定义。
技术协同:考虑AI与其他新兴技术的协同,避免技术孤立,增强立法和资金效果。
外部意见:寻求利益相关者和专家的意见,指导AI技术发展。
行政更新:鼓励行政部门向国会及时分享AI活动信息,包括国际谅解备忘录和研究结果,以支持立法。
支持美国人工智能创新
预算建议:工作组鼓励行政分支和参议院拨款委员会在预算和拨款过程中,继续评估联邦对人工智能的投资需求,目标是达到国家安全人工智能委员会(NSCAI)最终报告中提议的每年至少320亿美元的非国防人工智能创新投资水平。
紧急拨款:工作组建议参议院拨款委员会与相关委员会合作,开发紧急拨款语言,以填补当前支出水平与NSCAI推荐水平之间的差距,包括以下优先事项:
资助跨政府的AI研发工作,包括相关基础设施。
资助尚未完全资助的CHIPS和科学法案(P.L. 117-167)账户,特别是与AI相关的账户。
根据需要资助商务部(DOC)、能源部(DOE)、国家科学基金会(NSF)和国防部(DOD),以支持针对未来高端AI芯片设计和制造的半导体研发。
通过CREATE AI法案(S. 2714)授权国家AI研究资源(NAIRR)并为其提供资金。
资助一系列“AI大挑战”项目,以推动技术创新挑战。
资助国家标准与技术研究院(NIST)的AI测试和评估基础设施。
资助工业与安全局(BIS)更新其信息技术基础设施。
资助人工智能与机器人技术的研发活动,以推进国家安全等。
支持在紧急拨款中为AI活动提供资金,以应对国家安全威胁、风险和机会。
劳动力影响:工作组认识到AI对劳动力的潜在影响,包括可能取代工人,并鼓励有意识地考虑AI对劳动力的影响,确保美国工人不被落下。
劳动力发展:工作组鼓励确保所有利益相关者在AI开发和部署过程中得到咨询,并开发相关立法,包括为私营部门劳动力提供培训、再培训和技能提升的激励措施。
移民政策:工作组支持改善美国的高技能STEM工人移民系统,以支持国家安全并促进AI在整个社会的进步。
公私合作伙伴关系:工作组鼓励相关委员会开发立法,利用公私合作伙伴关系来支持AI的进步,并最小化AI的潜在风险。
联邦研究:工作组支持进一步研究AI,包括通过联邦资助的研究与开发中心(FFRDCs)进行。
初创公司支持:工作组支持解决初创公司在AI市场中竞争的挑战,并考虑是否需要立法来支持最佳实践的传播。
联邦法规影响:工作组支持美国总会计长报告,识别影响人工智能系统创新的任何重大联邦法规。
人工智能的高影响力应用
人工智能工作组认为现行法律需一致有效地适用于AI系统及其相关方。AI系统的“黑箱”特性可能引发法律遵守疑虑,特别是在需了解自动化系统运作的美国法律背景下。工作组鼓励委员会识别法律适用差距,并必要时制定立法解决。立法应确保监管机构获取执行法律所需信息,并对高风险AI应用提出透明度、可解释性等要求。
AI用例不应侵犯宪法权利、危及公共安全或违反反歧视法律。工作组关注AI的潜在不公平影响,包括无意有害偏见。因此,在评估AI影响或考虑立法时,应探讨其对不同人群的双重影响。
人工智能工作组
人工智能工作组提出多项建议,涵盖多个领域:
审查与指导:鼓励审查高影响力AI用例的指导,探索可解释性要求,支持关键基础设施AI标准制定及相关立法。
能源使用:建议能源信息管理局调查数据中心和超级计算集群的能源使用情况。
金融监管:支持S.3050法案第3节,进行监管差距分析,确保AI模型数据准确代表性,金融监管机构有执行工具。
住房领域:调查AI在住房领域的使用,关注透明度和问责制。
联邦采购:确保AI系统满足标准,简化已达标AI系统的采购流程。
新闻业:关注AI对新闻业的影响,特别是地方新闻,建议立法解决。
儿童保护:制定立法解决在线儿童性虐待材料,保护儿童免受AI驱动的在线伤害,关注社交媒体对心理健康的影响。
反欺诈:探索机制阻止AI欺诈和欺骗,特别是针对弱势群体。
自动驾驶:制定自动驾驶车辆测试和部署的联邦框架,与战略竞争对手竞争。
社交评分:考虑立法禁止使用AI进行社交评分,保护基本自由。
限制使用:审查其他潜在AI用途是否应受极端限制或禁止。
医疗服务:AI正广泛应用于医疗服务,包括新药开发、疾病检测和诊断改进等。
立法支持AI在医疗保健的部署,同时保护患者,确保消费者保护、防欺诈和滥用,使用准确数据。
支持NIH开发和改进AI技术,重点数据治理,解决隐私问题。
确保HHS(含FDA和NHITCO)有权权衡AI产品利弊,提供可预测监管结构。
立法提供AI在医疗产品和临床支持服务中的透明度,包括训练数据。
制定政策促进改善医疗保健的AI系统创新,检查报销机制,确保问责制和广泛使用。
人工智能工作组建议推进水印和数字内容来源证明的应用,特别是针对人工智能生成或增强的选举内容,同时鼓励人工智能部署者和内容提供者在选举前采取强有力的保护措施,以减少虚假的人工智能生成内容,并确保在保护这些措施的同时不侵犯第一修正案权利。此外,工作组还认可美国选举援助委员会和网络安全与基础设施安全局在选举工具方面的工作,并鼓励各州采用这些工具。
人工智能工作组认识到技术快速发展和AI产品自主性差异导致法律责任分配难题,因此鼓励相关委员会考虑是否需要额外标准或澄清现行标准,以追究AI开发者和部署者及最终用户的责任。同时,工作组倡导减少非公开个人信息在AI系统中的存储和使用,支持全面联邦数据隐私法,以解决数据最小化、安全、消费者权利、同意披露及数据经纪人等问题。
透明度、可解释性、知识产权和版权
考虑制定立法,建立AI系统透明度要求的一致方法,同时允许特定用例要求,并确保与风险制度一致,不抑制创新。
评估自动化水平最佳实践,考虑高影响力任务中人参与的必要性。
审查联邦机构向员工提供新技术开发和部署的透明度。
考虑数据集相关的联邦政策问题,评估透明度要求。
审查数字内容来源证明的行政分支报告。
考虑立法激励软硬件提供商提供内容来源信息,要求或激励在线平台维护访问,并鼓励平台自愿显示。
考虑立法防止未经授权使用个人信息,考虑第一修正案原则及合成内容影响。
审查版权和知识产权法报告,采取行动保持美国领先地位。
考虑立法建立公众意识和教育活动,提供AI好处、风险及普及信息。
防范人工智能风险
人工智能工作组基于论坛中专家的见解,鼓励公司对AI系统进行详细测试和评估,以掌握潜在危害,避免发布不达标系统,并提出了一种弹性风险制度,它应关注AI系统能力,保护专有信息,支持美国AI创新,并与最新研究保持联系,允许根据变化定期更新。此外,工作组还鼓励相关委员会支持开发以能力为重点的风险基础方法及相关测试评估机制和标准,包括利用联邦采购系统,以应对AI可能带来的风险。
各论坛摘要
首届论坛汇集了来自多个行业的领军人物,包括人工智能行业高管、研究人员以及民权和劳工领袖,共同探讨人工智能对美国乃至全球的重大影响。我们讨论了人工智能将对劳动力、国家安全、选举和医疗保健等关键领域产生影响的多种方式,为后续论坛的详细讨论奠定了基础。所有与会者都认为,政府在促进人工智能创新的同时,制定适当的监管措施方面发挥着重要作用。
第二届论坛聚焦于加强人工智能创新的需求。与会者指出,需要强大且持续的联邦政府对人工智能研发的资金投入。所有与会者都同意,联邦政府至少应按照国家安全人工智能委员会的建议水平投资人工智能研发(2024财政年度80亿美元,2025财政年度160亿美元,2026财政年度及以后320亿美元)。除了联邦投资外,与会者还强调了确保人工智能创新的成果惠及传统上与技术行业关联度不高的社区和弱势群体的重要性。建议包括加强数字基础设施建设、鼓励高技能科学、技术、工程和数学(STEM)人才移民、让工人参与研发和设计过程、继续收集更多数据以及避免可能无意中损害市场竞争的监管障碍。
人工智能与劳动力(第三届论坛)
第三届论坛探讨了人工智能对劳动力的应用及风险。与会者认识到,虽然人工智能有可能影响劳动力市场的每一个部门——包括蓝领和白领工作——但很难预测不同行业采用人工智能的速度和规模以及人工智能对劳动力的影响程度。尽管存在这种不确定性,许多与会者仍强调雇主需要开始培训员工使用这项技术。一些与会者指出,为了最大化人工智能在劳动力方面的效益,在部署该技术时应咨询工人意见。一些与会者指出,人工智能可以帮助工人提高效率,要求各行业做好准备并培训员工掌握使用这项技术的技能。
人工智能的高影响应用(第四届论坛)
第四届论坛研究了人工智能可能被用于金融服务、医疗保健、住房、移民、教育和刑事司法等高影响领域的具体情况。许多与会者证实,人工智能在这些领域的影响并非假设性的,而是正在发生,并强调需要确保人工智能的开发者和部署者遵守现有法律,并考虑可能存在的法律空白。一些与会者指出,用有偏见的数据训练人工智能系统可能会导致有害的偏见输出,并建议在高影响人工智能系统部署前进行测试,以检测这些系统可能对公民权利和公共安全产生的潜在影响。与会者一致认为,人工智能在高影响领域的应用既带来机遇也带来挑战,决策者应保护和支持美国的创新。他们还强调,在部署这些高影响领域的人工智能时,必须优先考虑透明度和来自不同利益相关者的参与。
第五届论坛分析了人工智能对选举和民主的影响。与会者一致认为,人工智能可能对我们的民主机构产生重大影响。与会者分享了人工智能如何通过深度伪造和聊天机器人等方式影响选民、放大虚假信息并侵蚀信任的实例。与会者还指出,如果人工智能被用于改善政府服务、响应能力和可及性,也可以提高民众对政府的信任度。与会者提出了许多可能实施的解决方案,以减轻危害并最大限度地发挥效益,包括为人工智能生成或人工智能增强的内容添加水印、对选民进行内容来源教育以及使用其他人工智能应用来加强选举管理过程。一些与会者指出,媒体关注度较低的州和地方选举可能是人工智能虚假信息宣传活动的最大潜在目标,也是适当保障措施的最大受益者。
第六届论坛探讨了如何在最大化人工智能效益的同时保护美国人的隐私以及人工智能系统部署和使用过程中的责任问题。与会者分享了人工智能和数据如何密不可分的实例,从依靠大量数据训练人工智能算法到人工智能在社交媒体和广告中的应用。一些与会者指出,国家数据隐私保护标准将为人工智能开发者提供法律确定性,并为消费者提供保护。与会者注意到,一些人工智能算法的“黑箱”性质以及许多人工智能产品的分层开发者-部署者结构,再加上法律上的不明确性,可能会使得确定任何损害的责任归属变得困难。与会者还一致认为,人工智能、隐私和我们社会世界的交集是一个值得更多研究的领域。
第七届论坛聚焦于人工智能开发和部署中的四个关键要素:透明度、可解释性、知识产权(IP)和版权。许多与会者指出,在人工智能系统的开发、训练、部署和监管过程中保持透明度将能够进行有效监督,并有助于减轻潜在危害。与会者详细讨论了使用水印和内容来源技术来区分经过和未经人工智能处理的内容。与会者还讨论了人工智能系统中可解释性的重要性,并认为用户应该能够理解人工智能系统的输出以及这些输出是如何得出的,以便可靠地使用这些输出。一些与会者指出,联邦政府在保护美国公司和个人的知识产权的同时支持创新方面发挥着作用。与会者分享了创作者在人工智能时代努力
第八论坛探讨了人工智能的潜在长期风险,以及如何最好地鼓励开发符合民主价值观的人工智能系统,从而避免末日情景的发生。与会者对人工智能系统可能带来的灾难性和存在性风险的担忧程度各不相同,一些与会者对人工智能的未来持非常乐观的态度,而其他与会者则非常担心人工智能系统可能造成严重危害的可能性。与会者还一致认为,需要进行更多的研究,包括制定风险评估的标准基线,以便更好地评估高性能人工智能系统的潜在风险。一些与会者提出,需要继续关注人工智能的现有和短期危害,并强调了关注短期问题将如何为解决长期问题提供更好的立足点和基础设施。总体而言,与会者大多同意,需要更多的研究和合作来管理风险并最大化机遇。
国家安全(第九论坛)
第九论坛聚焦于国家安全这一关键领域。与会者一致认为,美国在人工智能方面保持领先于对手至关重要。为了保持竞争优势,与会者同意美国需要在人工智能的研究、开发和部署方面进行大量投资。从获取情报信息到提升网络能力,再到最大化无人机和战斗机的效率,与会者强调了美国如何在国防工业基地内推动人工智能创新。与会者还提醒注意,像中国这样的国家正在大力投资商业人工智能,并积极寻求在人工智能能力和资源方面的进步。为了确保我们的对手不为人工智能制定规则,与会者强调了确保国防部能够充分获取人工智能能力并充分利用其潜力的必要性。
特别说明:本文内容仅供学习交流使用,如有侵权请后台联系小编删除。
原文文件来啦
添加助教微信
发送050
即可领取英文版PDF
– END –