2023-11-30
人工智能监管格局正在迅速转变。最近,美国总统乔·拜登政府发布了一项关于人工智能的行政命令,七国集团领导人就人工智能的一套指导原则和人工智能开发者的自愿行为准则达成一致,《欧盟人工智能法案》可能成为世界上第一部全面的人工智能法规。 随着世界各地的公司开发和部署这项技术,他们正在密切关注监管发展,并认识到建立人工智能治理计划的紧迫性。 虽然人工智能治理没有一刀切的方法,但所有负责任的人工智能利益相关者都可以利用既定的合规计划最佳实践,有效实施一流的人工智能治理计划。 将原则映射到书面程序 与其他合规计划类似,人工智能治理计划必须超越一套原则和核心价值观,并应在组织内作为一个活的、适应性强的框架进行战略实施。 根据组织需求和监管要求,通过制定书面协议和程序,可以使人工智能原则栩栩如生。 具体来说,考虑将每个负责任的人工智能原则,如公平性或可解释性,映射到一套实施指南、政策和程序中。这是一个特别有用的练习,可以展示在整个组织中实施负责任的人工智能原则。 一旦制定好这些计划,就可以在一个全面的图表或行动手册中可视化整个人工智能治理计划,捕捉每个原则的适用书面协议、程序和要求。 作为一项额外的好处,这项工作可以帮助公司隔离和确定由于组织人工智能战略或监管环境的变化而需要更新的程序的特定协议。 例如,考虑公平原则——可以说是在管理人工智能偏见的挑战下实施的更复杂的原则之一。 根据合规计划的最佳实践,在实施这一原则时应用以下四个要素: 定义“公平”:至关重要的是,要在内部对公平的适用定义保持一致,以确保从实施的角度对这个术语及其含义有共同的理解。 定义监管范围:确定与该原则相关的任何适用监管要求,并在书面政策和程序中记录合规措施。 衡量公平性:记录减少偏见和进行公平性评估的协议。 为变革管理做好准备:根据需要更新公平实施指南和程序,牢记人工智能部署或使用的组织变化、客户需求和新的法律要求。 建立多条防线 多重防御策略是一种流行的合规风险管理机制,尤其是在监管严格的行业,可以帮助管理组织内与人工智能相关的风险。 这一策略有助于在人工智能开发或部署的不同阶段动员团队,让他们承担特定的风险,负责减轻这些风险,并帮助推动负责任的人工智能行为跨越不同的防线。 从人工智能治理项目的角度来看,多条防线模型对实施问责制原则特别有帮助。 数据与信任联盟和IBM最近从人工智能治理计划的角度提供了三条防线的细分。 第一道防线包括人们要么构建人工智能模型,要么从供应商那里购买。该团队的任务是将所有人工智能模型的设计、开发和部署与组织记录的负责任人工智能原则相一致。 第二道防线侧重于风险函数,评估和验证第一道防线所做的工作。例如,第二行中的团队可能会执行合规性检查,以确保某些数据变量——例如受保护类的变量——不会在人工智能模型中使用。 第三道防线是审计职能,包括各种主题专家,以便对正在使用的人工智能系统进行评估。 开展AI扫盲工作和尽责的人工智能培训 与隐私领域类似,用技术术语谈论人工智能很容易,而且越来越多地用法律术语。 为了有效推动负责任的人工智能文化的采用,公司必须考虑到团队对人工智能的不同理解水平,包括负责任的开发和负责任的部署意味着什么。 持续的培训对于提高人工智能素养和鼓励整个组织采用负责任的人工智能行为至关重要。 除了组织范围内的人工智能治理计划培训外,基于角色的培训还可以帮助员工了解与人工智能系统交互的含义,因为他们有特定的角色和责任。 考虑使用市场上可用的负责任的人工智能材料和培训,包括IAPP人工智能治理中心和人工智能治理专业培训内的资源。 从战略上推动负责任的人工智能文化 如果组织行为与计划目标不一致,合规计划的有效性就会受到限制。为了帮助推动整个组织采用人工智能治理计划,必须从公司负责任的人工智能文化开始。 员工是否欣赏负责任的人工智能的价值和好处?他们是否了解不负责任地使用人工智能的风险,是否接受他们在负责任地利用人工智能系统方面所扮演的角色? 有效的沟通对于解释负责任的人工智能背后的“原因”、围绕与人工智能系统的互动建立护栏以及概述员工在人工智能使用方面的角色和责任至关重要。 负责任的人工智能战略应该支持公司的合规文化。这意味着将负责任的人工智能原则、计划愿景和使命声明与公司核心价值观相一致,更新工作描述以包括负责任的AI期望,并添加负责任的AI作为绩效评估指标。 在整个组织中建立一个负责任的人工智能冠军网络,以扩大努力,类似于隐私冠军的概念。 为变革准备人工智能治理计划 作为合规性最佳实践,人工智能治理计划的设计应与组织保持相关性并满足业务需求。从本质上讲,程序应该包括动态控制和自动解决方案,以考虑所需的程序更新。 毕马威会计师事务所的一份报告强调了为合规项目实施变更管理协议的重要性。 毕马威指出,此类协议可以帮助团队采取切实有效的方法,根据新法规调整合规计划。此外,变更管理协议有助于公司促进跨竖井的协调,并获得有意义的见解,以改进合规风险管理。 许多因素促成了对人工智能治理计划适应性的需求,包括快速发展的技术格局、新法规、企业对人工智能战略的改变以及消费者和客户的需求。 例如,考虑拟议的欧盟人工智能法案。如果通过,有什么协议来解释这项法规,包括更新政策、程序、全公司和基于角色的培训,以及与消费者和客户的任何面向外部的沟通? 将变革管理纳入人工智能治理程序设计至关重要,因此它能够与任何新的适用开发一起适应。 如果一家公司已经在使用变革管理协议来启动和实施人工智能系统,那么将人工智能治理计划的变革与这些努力相结合可能会有所帮助。 这样,员工就可以尽快了解任何新人工智能系统的负责任使用情况。 为成功定位人工智能治理计划 在实施人工智能治理计划时,可以使用某些合规策略来确保成功推出,并在整个组织中推动负责任的人工智能行为。 记住根据每一项原则记录程序,建立多条防线,启动人工智能扫盲工作和负责任的人工智能培训,战略性地推动负责任的AI文化,并采用变革管理协议。 这些合规最佳实践提示有助于确定实施工作的成功和适应情况。
文章来源:https://iapp.org/
原标题:Five compliance best practices for a successful AI governance program
本文转载自:隐私合规交流圈
上一条:内部敌人:背叛领导者
下一条:英国打击欺诈行为