帮助组织实施人工智能行为准则的4个注意事项

分享

其他推荐

目前,商业界对人工智能的热衷程度非常高。每周都有新的工具、虚拟助理和大语言模型(large language models,简称LLM)被开发出来,以协助组织实现多种功能。随着这些技术变得越来越普遍,每个组织都需要一个内部行为准则来降低风险并管理内部使用人工智能的方式。

从本质上讲,人工智能治理是现有隐私和安全规则的延伸,因为它只是建立在组织现有数据处理实践的基础上。就像组织制定政策规定谁可以访问其数据以及如何处理数据一样,人工智能行为准则也明确规定了什么是可以接受的人工智能使用方式。 通过积极主动地制定这些准则,企业可以使其团队快速采用这些工具,从而始终走在创新的前沿,同时确保以安全可靠的方式使用这些工具。

如何制定人工智能行为准则

重要的是,人工智能政策应由上到下共同推动,并得到高管和员工的支持,而且要有强有力的激励措施。高管需要确保他们对人工智能的使用符合即将出台的法规(如《关于在欧盟全境实现高度统一网络安全措施的指令》(NIS 2指令)),而员工则希望得到明确的指导,了解他们可以在哪些用例中使用哪些工具。

以下是 IT 领导者在实施自己的人工智能行为准则时应考虑的四个关键因素。

  1. 将人工智能纳入现有采购流程

人工智能行为准则应首先概述员工在采购或开始使用任何新工具之前需要完成的步骤。许多组织重新考虑运行方式以适应人工智能工具,但这会产生大量不必要的工作。相反,它们应该对任何人工智能工具实施与任何涉及数据安全的产品相同的严格采购流程。

采购流程还必须考虑到组织的隐私和道德标准,以确保这些标准绝不会以新技术的名义受到损害。无论何时,只要有人想启用新的人工智能工具,它就应该与组织使用的任何其他技术产品具有相同的保障措施。

此外,为了简化围绕新人工智能工具的决策流程,企业应将请求集中在一个跨部门治理委员会下,该委员会由来自多个业务领域的代表组成,包括工程、商业、安全和法律团队。要想取得成功,该委员会必须发挥促进者而非阻碍者的作用。它需要有相应的机制来考虑不同人工智能工具的单独用例、业务应用和成本效益,从而为企业选择最佳的人工智能工具。

  1. 禁止使用隐私和安全防护不明确的免费工具

鉴于现成人工智能工具的使用案例非常广泛,企业很快就会发现不同的团队都在使用自己的解决方案,而且往往是免费的个人许可证,而不是付费的商业许可证。然而,这些员工往往没有意识到的是,免费工具的隐私规则更为宽松,可能会让供应商访问公司数据。在企业环境中使用人工智能工具时,一定要注意这些工具的隐私政策,并确保只使用获得商业许可的工具。

为了应对这一风险,人工智能行为准则应规定,在任何业务环境中都绝对禁止使用免费工具。相反,应要求员工使用经批准的、官方采购的商业许可解决方案,并提供全面的隐私保护。

  1. 对供应商和合作伙伴采取安全第一的态度

每个组织都需要了解其技术供应商如何在他们购买的产品和服务中使用人工智能。为了做到这一点,人工智能行为准则还应执行相关政策,使组织能够跟踪其供应商协议。解决方案所有者需要确保他们的协议条款不会改变,而且随着人工智能被引入到他们使用的产品中,安全性仍然是一个优先事项。

例如,视频会议解决方案中内置的人工智能驱动的文本摘要和转录工具对于记笔记非常有帮助,但如果供应商将其用于训练 LLMs,则可能会暴露敏感数据。最近的一个例子是,一款流行的协作工具被发现在未经用户同意的情况下,利用用户之间共享的信息和文件来训练人工智能。为了应对这种风险,企业在制定人工智能行为准则时,应将数据安全作为核心考虑因素。即使这意味着限制人工智能的某些用途,例如禁止使用人工智能助手来抄写会议内容,这一做法也能大大限制组织因可能使用不当或未经管理的人工智能而面临的风险。

  1. 展示如何有效使用人工智能

在许多组织中,人工智能仍然是一种相对较新的工具。虽然员工对人工智能的工作原理有基本的了解,但他们可能不具备从人工智能中获得最佳效果所需的知识。

例如,人们普遍误认为 ChatGPT 等工具能像人类一样“思考”,并能保留之前所提问题的上下文情景。实际上,人工智能工具只能以非常有限的方式记住对话的上下文,这会影响其生成的输出结果的可靠性。因此,IT 支持团队经常会发现自己被那些努力应对类似人工智能相关挑战的员工反复问到相同的问题。

为了解决这个问题,人工智能行为准则还应该有助于确定员工对该技术能做什么、不能做什么的期望,以及他们需要哪些技能才能充分利用该技术。企业可以通过实施培训计划来支持这一点,随着知识的增长和技术的发展,向团队简要介绍人工智能工具是如何工作的。虽然团队成员不需要专业的人工智能技能,但他们应该掌握有效使用工具所需的基本知识。

创建人工智能行为的良性循环

任何组织都不是单独运作的,因此,除了管理自己内部对人工智能的使用外,还必须让与之合作的每家公司都对自己的做法负责,并确保他们坚持相同的标准。

各组织还应建立信任中心,并设计面向公众的人工智能政策。这样,他们就能在如何使用和实施人工智能工具方面做到透明,从而让客户和其他利益相关者一目了然。

将积极、主动的人工智能政策公之于众,企业可以相互学习,并据此制定自己的行为准则。这样做的目的是创造一个人工智能治理的良性循环,让各组织能够共同努力,确保我们都能负责任地使用这些改变游戏规则的技术,并成功地造福于所有人。

原文链接

(机器翻译,轻度译后编辑,仅供参考。)

编辑:李旭媛

Was it helpful ?

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注