定制报告-个性化定制-按需专项定制研究报告
行业报告、薪酬报告
联系:400-6363-638
《CSA:2024年AI组织责任:核心安全责任报告(70页).pdf》由会员分享,可在线阅读,更多相关《CSA:2024年AI组织责任:核心安全责任报告(70页).pdf(70页珍藏版)》请在薪酬报告网上搜索。
1、 2024云安全联盟大中华区版权所有 1 医疗保健中的信息技术治理、风险与合医疗保健中的信息技术治理、风险与合规(第二版)规(第二版)2024云安全联盟大中华区版权所有 2“AI 组织责任工作组”的永久的官方网址是 https:/cloudsecurityalliance.org/research/working-groups/ai-organizational-responsibilities 2024 云安全联盟大中华区 保留所有权利。你可以在你的电脑上下载、储存、展示、查看及打印,或者访问云安全联盟大中华区官网(https:/www.c-)。须遵守以下:(a)本文只可作个人、信息获取、非
2、商业用途;(b)本文内容不得篡改;(c)本文不得转发;(d)该商标、版权或其他声明不得删除。在遵循中华人民共和国著作权法相关条款情况下合理使用本文内容,使用时请注明引用于云安全联盟大中华区。3 4 目录目录 目录.4 前言.7 致谢.8 介绍.9 AI 共享责任模型.9 AI 化应用程序中的关键层.10 人工智能平台.10 AI 应用层.10 AI 使用.11 以数据为中心的人工智能系统的基础组件.13 前提条件.18 目标受众.18 职责角色定义.19 管理与战略.19 治理与合规.20 技术和安全.21 运营与发展.21 规范性引用文件.22 一、将数据安全和隐私纳入人工智能训练.23 1
3、.1 数据真实性和许可管理.23 1.2 匿名化和假名化.24 1.3 数据最小化.26 1.4 数据访问控制.27 1.5 安全存储和传输.28 二、模型安全.29 5 2.1 模型访问控制.29 2.1.1 身份验证和授权框架.30 2.1.2 模型接口速率限制.31 2.1.3 模型生命周期管理中的访问控制.31 2.2 安全的模型运行环境.33 2.2.1 基于硬件的安全功能.33 2.2.2 网络安全控制.34 2.2.3 操作系统级强化和安全配置.35 2.2.4 K8s 与容器安全.36 2.2.5 云环境安全.37 2.3 漏洞和补丁管理.38 2.3.1 机器学习代码完整性保
4、护.38 2.3.2 机器学习训练和部署代码的版本控制系统.39 2.3.3 验证已批准版本的代码签名.41 2.3.4 基础设施即代码方法.43 2.4MLOps 流水线安全.44 2.4.1 源代码漏洞扫描.44 2.4.2 测试模型对攻击的鲁棒性.45 2.4.3 验证每个阶段的流水线完整性.46 2.4.4 监控自动化脚本.48 2.5AI 模型治理.50 2.5.1 模型风险评估.50 2.5.2 业务审批程序.51 2.5.3 模型监控要求.52 2.5.4 新模型验证过程.53 2.6 安全模型部署.54 2.6.1 灰度发布.54 2.6.2 蓝绿部署.55 6 2.6.3 回
5、滚功能.56 2.6.4 报废模型.56 三、漏洞管理.57 3.1AI/ML 资产盘点.57 3.2 持续漏洞扫描.59 3.3 风险的优先级.60 3.4 补救跟踪.61 3.5 异常处理.62 3.6 报告指标.64 结论.66 缩略语.68 7 前言前言 本白皮书是一份工作草案,重点关注 AI 和机器学习系统开发和部署中在信息和网络安全方面的组织责任。本白皮书综合了在核心安全领域专家推荐的最佳实践,包括数据保护机制、模型漏洞管理、MLOps 流水线强化以及负责任地训练和部署人工智能的治理政策。白皮书中讨论的要点包括:数据安全和隐私保护:数据真实性、匿名化、假名化、数据最小化、访问控制以
6、及安全存储和传输在人工智能训练中的重要性。模型安全:涵盖模型安全的各个方面,包括访问控制、安全运行环境、漏洞和补丁管理、MLOps 流水线安全、AI 模型治理和模型安全部署。漏洞管理:讨论 AI/ML 资产盘点的重要性、持续漏洞扫描、基于风险的优先级排序、补救跟踪、异常处理和有效管理漏洞的报告指标。白皮书使用可量化的评估标准、责任、问责、咨询、RACI 模型来分析每项责任,包括角色定义、高级实施策略、持续监控和报告机制、访问控制映射以及遵守基本框架。这些基于行业最佳实践和标准,如 NIST AI RMF、NIST SSDF、NIST 800-53、CSA CCM 等。本白皮书通过概述这些在安全
7、和合规领域的关键建议,使得企业能在安全和负责的进行人工智能设计、开发和部署中肩负起应有的责任。8 致谢致谢 主要作者 Jerry Huang Ken Huang 贡献者/联合主席 Ken Huang Nick Hamilton ChrisKirschke Sean Wright 审稿人 Candy Alexander Llango Allikuzhi Eray Altili Aakash Alurkar Romeo Ayalin Renu Bedi Saurav Bhattacharya Sergei Chaschin Hong Chen John Chiu Satchit Dokras Ra
8、jiv Gunja Hongtao Hao,PhD Grace Huang Onyeka Illoh Krystal Jackson Arvin Jakkam Reddy Reddy Simon Johnson Gian Kapoor Ben Kereopa-Yorke Chris Kirschke Madura Malwatte Madhavi Najana Rajith Narasimhaiah Gabriel Nwajiaku Govindaraj Palanisamy Meghana Parwate Paresh Patel Rangel Rodrigues Michael Roza
9、Lars Ruddigkeit Davide Scatto Maria Schwenger Mj Bhuvaneswari Selvadurai Himanshu Sharma Akshay Shetty Nishanth Singarapu Abhinav Singh Dr.Chantal Spleiss Patricia Thaine Eric Tierling Ashish Vashishtha Peter Ventura Jiewen Wang Wickey Wang Udith Wickramasuriya Sounil Yu CSA 全球员工 Marina Bregkou Sean
10、 Heide Alex Kaluza Claire Lehnert Stephen Lumpe 9 介绍介绍 本白皮书重点介绍我们所定义的关于企业围绕人工智能(AI)和机器学习(ML)、数据安全、模型安全和漏洞管理的“核心安全责任”。根据组织有责任维护安全可靠的人工智能实践,本白皮书和本系列的另外两份白皮书为企业履行这些组织责任提供了蓝图。具体而言,本白皮书综合了核心安全领域专家推荐的最佳实践,包括以下几个部分:数据保护机制、模型漏洞管理、MLOps 流水线强化以及负责任地培训和部署人工智能的治理政策。本系列通过在三份有针对性的白皮书中概述这些关键的安全和合规领域的建议,另外两篇白皮书讨论了企
11、业安全人工智能开发和部署的其他方面,旨在指导企业履行其负责任和安全的开展人工智能设计、开发和部署的义务。AI 共享责任模型共享责任模型 AI 共享责任模型概述了 AI 平台提供商、AI 应用程序所有者、AI 开发人员和 AI使用者当中的任务划分(按 SaaS、PaaS、IaaS 服务划分)。人工智能应用程序的安全运行包含了利益相关者之间的协作。在人工智能的背景下,责任由三个关键方共担:人工智能服务用户、人工智能应用程序所有者和开发人员以及人工智能平台提供商。在评估人工智能的集成能力时,理解共担责任模型并描述各方处理的具体任务至关重要。10 AI 化化应用程序中的关键层应用程序中的关键层 人工智
12、能平台人工智能平台 该层为应用程序提供 AI 功能。它涉及构建和保护承载 AI 模型、训练数据和配置参数的基础设施。人工智能系统的安全防护应该考虑防止 AI 模型受到恶意输入和生成恶意的攻击输出。一个安全的人工智能系统应该具有防范有害攻击的能力:例如蓄意仇恨破坏等。AI 平台层包括以下任务:模型安全和防护 模型调优 模型责任 模型设计与实现 模型训练和治理 人工智能计算和数据基础设施 AI 应用层应用层 AI 应用层可以利用 AI 功能与用户交互,复杂性可能存在显著的差异。从最基本的层面上来说,独立的人工智能应用程序可以充当 API 通道,通过处理来自用户的文本提示,并将其传递给底层模型以获得
13、响应。复杂一点的人工智能应用程序能够利用持久层、语义索引或提供更广泛数据源访问的插件等手段,获得额外的上下文来丰富提示的内容。最先进的人工智能应用程序可以与现有的应用程序和系统无缝集成,实现包括文本、音频和视觉输入在内的多模式方法,以产生多样化的内容输出。11 作为人工智能应用程序所有者,我们可以确保无缝的用户体验,并处理其他相关的功能或服务。为了保护人工智能应用程序免受不法活动的影响,建立一个强大的应用程序安全系统至关重要,生成式人工智能系统应彻底检查发送到 AI 模型的提示词中的内容。此外,它必须仔细检查与插件和功能、数据连接器等任何附加组件的交换,以及与其他 AI 应用程序的交互(AI
14、编排)。对于那些在 IaaS 平台或 PaaS 服务上开发人工智能应用程序的人来说,我们建议使用更为专业的人工智能内容安全功能,并根据具体要求,采用其他增强保护的功能。AI 应用程序有以下任务:AI 插件和数据连接 应用程序设计和实现 应用程序基础架构 AI 安全系统 AI 使用使用 AI 使用层概述了AI 功能的应用和消费。生成式人工智能引入了与 API、命令提示和 GUI 等传统界面不同的创新的用户/计算机交互模型。这个新的界面具有交互性和适应性,可以根据用户的意图塑造计算机的功能。与早期要求用户符合系统设计和功能的界面不同,生成式人工智能界面优先考虑用户的交互性。这使得用户的输入能够显著
15、地影响系统的输出,强调了安全机制对保护个人、数据和企业资源的重要性。人工智能的使用,在安全的考虑类似于计算机系统,它依赖于身份和访问管理、设备安全、监控、数据治理和管理控制的稳健措施。鉴于用户行为可能对系统输出产生重大影响,有必要更加关注用户行为和责任。我们必须修订可以被接受的政策,并告知用户传统应用程序和增强12 人工智能应用程序之间的区别,应涵盖有关安全、隐私和道德标准等特定问题。此外,提高用户对人工智能化攻击的认识是非常重要的,这种攻击形式可能涉及包含人为制作的文本、音频、视频和其他媒介。AI 使用层有以下任务:用户培训和问责制 可接受的使用策略和管理控制 身份和访问管理(IAM)和设备
16、控制 数据治理 我们需要记住的是,这种模型有助于划分角色,确保职责明确分离,有助于安全有效地使用人工智能技术。工作职责的划分是基于服务模型的 AI 集成类型而异的。软件即服务(软件即服务(SaaS)在基于 SaaS 的人工智能集成中,人工智能平台提供商负责管理底层基础设施、安全控制和合规措施。用户的主要重点在于配置和定制 AI 应用程序,以符合相应的特定要求。平台即服务(平台即服务(PaaS)基于 PaaS 的 AI 平台提供了一个中间层。AI 提供商管理着核心的人工智能功能,但用户仍然可以进行定制化的配置和控制。用户有责任确保 AI 模型的安全使用、处理训练数据,并调整模型(例如权重和偏差)
17、。13 基础设施即服务(基础设施即服务(IaaS)在 IaaS 场景中,用户可以更好地控制基础设施,这也意味着要承担更多的责任。用户可以统管 AI,包括 AI 模型、训练数据和基础设施安全。以数据为中心的人工智能系统的基础组件以数据为中心的人工智能系统的基础组件 以数据为中心的人工智能系统的基础组件涵盖了数据和模型管理的整个生命周期。安全相应的基础组件协同工作,能够创建安全有效的人工智能系统,并可以处理数据,提供有价值的意见并进行自动化决策。原始数据:从各种来源收集的初始未处理数据。数据准备:将原始数据清理和组织成结构化格式的过程。数据集:经过整理的数据集,可用于分析和模型训练。数据和人工智能
18、治理:确保数据质量和人工智能使用伦理的政策和程序。机器学习算法:用于解释数据的计算方法。评估:评估机器学习模型的性能。机器学习模型:在数据集上训练的算法的输出。模型管理:监督机器学习模型的生命周期。模型部署和推理:实现模型以做出预测或决策。推理结果:部署模型产生的结果。机器学习操作(MLOps):部署和维护AI模型的实践。数据和人工智能平台安全:保护系统免受威胁的措施。14 数据操作:数据操作:涉及数据的获取和转换,以及数据安全和治理的保证。机器学习模型的有效性取决于数据流水线的完整性和强化的 DataOps 框架。模型操作:模型操作:包括创建预测性机器学习模型、从模型市场采购或使用大型语言模
19、型(LLM),如 OpenAI 或通过基础模型 API。模型开发是一个迭代过程,需要一种系统的方法来记录和评估各种实验条件和结果。模型部署和服务:模型部署和服务:涉及模型容器的安全构建、模型的隔离和保护部署,以及对活动模型的自动扩展、速率限制和监视的实施。它还包括为检索增强生成(RAG)应用程序中的高可用性、低延迟服务提供特性和功能,以及为其他应用程序提供必要的特性,包括在平台外部部署模型或需要目录中的数据特性的应用程序。操作和平台:操作和平台:涵盖平台漏洞、更新、模型隔离和系统控制的管理,以及在安全架构框架内强制执行授权的模型访问。此外,它还涉及为持续集成/持续部署(CI/CD)部署操作工具
20、,确保整个生命周期在单独的执行环境(开发、测试和生产)中遵守既定的标准,以实现安全的机器学习操作(MLOps)。表 1 将操作对比以数据为中心的人工智能系统的核心,突出了它们的作用和相互依赖性。基础组件 说明 数据操作 数据的摄取、转换、安全和治理。模型操作 构建、获取和试验机器学习模型。模型部署和服务 机器学习模型的安全部署、服务和监控。运营和平台 MLOps的平台安全性、模型隔离和CI/CD。15 表1:以数据为中心的人工智能系统组件及其相互关联的角色 表 2 提供了 AI/ML 系统每个阶段的潜在风险和威胁的综合视图,以及解决这些问题的示例和建议的缓解措施。系统阶段 系统组件 潜在安全风
21、险 威胁 缓解措施 数据操作 原始数据、数据准备、数据集 数据丢失:未经授权删除或损坏数据。数据中毒:故意操纵数据以损害模型的完整性。合规挑战:未能满足数据保护的监管要求。数据泄露/中毒:攻击者可能会注入虚假数据或更改现有数据。实施稳健的数据治理框架。部署异常检测系统。建立恢复协议和定期数据备份。模型操作 ML算法,模型管理 模型盗窃:窃取专有模型。未经授权的访问:未经许可访问模型。通过API访问的攻击:利用API漏洞访问或操纵模型。模型窃取(提取):复制模型以供未经授权的使用。加强访问控制和身份验证机制。通过加密和速率限制来保护API端点。定期更新和修补系统。模型部署和服务 模型服务、推理响
22、应 未经授权的访问:未经授权访问模型服务基础设施。数据泄露:通过配置错误的系统暴露敏感信息。模型欺骗(逃避):改变输入以从模型中接收特定输出。训练数据恢复(反演):从模型中提取私人训练数据。安全部署实践,包括容器化和网络分段。主动监控和记录模型交互。实施速率限制和异常检测。16 运营和平台 机器学习操作、数据和人工智能平台安全 漏洞管理不足:未及时解决已知漏洞。模型隔离问题:未能正确隔离模型,导致潜在的交叉污染。攻击机器学习供应链:在第三方组件中引入漏洞或后门。模型污染(中毒):破坏训练数据,导致错误分类或系统不可用。持续的漏洞管理和修补。用于一致部署的CI/CD流程。隔离控制和安全架构设计。
23、表2:AI/ML 安全风险概述 我们从以下维度分析每项责任:1.评估标准:评估标准:在我们讨论人工智能责任时,应考虑可量化的指标来评估人工智能系统的安全影响。通过量化这些指标,利益相关者可以更好地了解人工智能技术的相关风险以及如何应对这些风险。组织必须经常评估其人工智能系统,以确保其安全性和可靠性,例如应该评估:系统处理攻击的能力(对抗鲁棒性),是否泄漏敏感数据,出错的频率(假阳性率),以及训练数据是否可靠(数据完整性)等等。作为组织安全计划的一部分,评估和监控这些关键措施将有助于改善人工智能系统的整体安全状况。2.RACI 模型:模型:该模型有助于澄清谁在人工智能决策和监督方面执行、负责、咨
24、询和告知(RACI)。应用 RACI 模型描述了人工智能治理中的角色和责任分配,这种责任分配对于安全的人工智能系统至关重要。当然,根据组织的规模和业务重点,本白皮书中描述的具体角色和团队仅供参考,重点应该是首先明确概述关键责任。其次,组织应该确定职责相对应的适当角色,并及时确定可以有后补角色的团队,同时,团队之间可能存在一些职责重叠。本文定义的 RACI 框架旨在提供初始角色和团队指定,以帮助组织开发自己的定制 RACI 模型。然而,各企业实施过程中可能因其独特的组织结构和优先事项而异。3.高级实施策略:高级实施策略:本节概述了将网络安全考虑无缝集成到软件开发生命周期(SDLC)中的策略。组织
25、必须优先执行信息安全的 CIA 原则:即确保数据和系统的17 机密性、完整性和可用性。同时应严格实施访问控制机制,以管理用户权限并防止未经授权的访问,利用审计机制跟踪系统活动并及时发现可疑行为。此外,还应该评估潜在的网络安全风险、识别漏洞和减轻威胁,以保护人工智能系统中的敏感信息。4.持续监控和报告:持续监控和报告:持续监控和报告能够确保人工智能系统的持续安全并保证性能。关键组件包括实时监控、对模型性能异常告警或安全事件告警、审计跟踪/日志和定期报告,并采取应对措施并解决问题。持续监控和报告有助于组织保持透明度,提高系统稳定率和确定责任归属,最终建立对人工智能系统的信任。5.访问控制:访问控制
26、:访问控制对于保护人工智能系统至关重要,包括强大的 API 身份验证/授权策略、管理模型注册表、控制对数据存储库的访问、监督持续集成和部署通道(CI/CD)、处理机密以及管理特权访问。通过为 AI 通道的各个部分定义用户角色和权限,可以保护敏感数据,并且确定在没有授权的情况下,不可篡改和访问模型。通过强身份认证和访问管理不仅可以保护知识产权,还可以确保整个人工智能工作流程的责任归属。6.遵守基础治理、风险与合规、安全、安保和道德标准:遵守基础治理、风险与合规、安全、安保和道德标准:强调遵守基于行业最佳实践和监管要求,如下所示:NIST SSDF 用于安全软件开发 NIST 人工智能风险管理框架
27、(AI RMF)ISO/IEC 42001:2023 人工智能管理系统(AIMS)ISO/IEC 27001:2022 信息安全管理体系(ISMS)ISO/IEC 27701:2019 隐私信息管理系统(PIMS)ISO 31700-1:2023 消费者保护消费品和服务的设计隐私 OWASP TOP10 18 NIST SP 800-53 Rev.5 信息系统和组织的安全和隐私控制 关于数据匿名化和假名化的一般数据保护条例(GDPR)和指导 基于云的服务标记化指南 前提条件前提条件 本白皮书采取行业中立的立场,提供适用于各个行业的指导方针和建议,而不会对特定行业产生具体偏见。目标受众目标受众
28、本白皮书旨在满足不同受众的需求,每个受众都有不同的目标和兴趣。1.首席信息安全官(首席信息安全官(CISO):):本白皮书专门针对 CISO 的关切和责任而设计,为在人工智能系统中集成核心安全原则提供了意见。值得注意的是,首席人工智能官(CAIO)的角色正在许多组织中出现,预计在不久的将来,本白皮书中定义的大多数相关职责可能会从首席信息安全官转移到 CAIO。2.AI 研究人员、工程师、数据专业人员、科学家、分析师和开发人员:研究人员、工程师、数据专业人员、科学家、分析师和开发人员:该白皮书为 AI 研究人员和工程师提供了全面的指导方针和最佳实践,帮助他们开发合乎道德和值得信赖的 AI 系统。
29、它是确保负责任的人工智能发展的关键资源。3.商业领袖和决策者:商业领袖和决策者:对于首席信息官、首席产品官、首席数据官、首席风险官、首席执行官和首席技术官等商业领袖和政策制定者来说,白皮书提供了与人工智能系统开发、部署和生命周期管理相关的网络安全战略的基本信息和认识。19 4.政策制定者与监管机构:政策制定者与监管机构:政策制定者和监管机构将发现这篇白皮书非常有价值,因为它提供了关键的见解,有助于制定有关人工智能伦理、安全和控制的政策和监管框架。它为人工智能治理领域的知情决策提供了指导。5.投资者和股东:投资者和股东:投资者和股东将会欣赏这份白皮书,因为它展示了一个组织对负责任的人工智能实践的
30、承诺。它强调了确保人工智能道德发展的治理机制,这对投资决策至关重要。6.客户和公众:客户和公众:本白皮书为客户和公众提供了关于组织在开发安全 AI 模型时的价值观和原则的透明度。职责角色定义职责角色定义 下表提供了一个通用指南,说明了在集成或操作人工智能技术的组织中常见的各种角色。我们必须认识到,每个组织可能会以不同的方式定义这些角色及其相关职责,反映其独特的运营需求、文化以及其人工智能计划的具体要求。因此,虽然该表提供了对人工智能治理、技术支持、开发和战略管理中潜在角色的基本理解,但仅供参考。我们鼓励各组织调整和定制这些角色,以最好地满足组织的定制化要求,确保结构和职责与其战略目标和运营框架
31、保持一致。随着人工智能技术的发展,可以进一步定义新的角色。管理与战略管理与战略 角色名称 角色描述 首席数据官(CDO)监督企业数据管理、策略创建、数据质量和生命周期。首席技术官(CTO)领导技术战略并监督技术发展。首席信息安全官(CISO)监督信息安全战略和运营。20 业务部门负责人 指导业务部门,使人工智能计划与业务目标保持一致。首席人工智能官(CAIO)负责组织内人工智能技术的战略实施和管理。管理层 监督和指导整体战略,确保与组织目标保持一致,包括CEO、COO、CIO、CTO、CISO、CAIO、CFO等。首席云官 领导云战略,确保云资源与业务和技术目标保持一致。首席架构师 领导架构战
32、略,确保设计技术架构与企业标准、流程、程序和目标保持一致。技术选型,监督设计的质量和实施,在组织内培养高级架构师。治理与合规治理与合规 角色名称 角色描述 类别名称 数据治理委员会 为数据治理和使用制定政策和标准。治理与合规 数据保护专员 监督数据保护策略和遵守数据保护法律法规。治理与合规 首席隐私官 确保遵守隐私法律法规。治理与合规 法律团队/部门 提供有关人工智能部署和使用的法律指导。就法律/监管义务进行沟通。确保与人工智能供应商签订的主协议中有适当的规定。治理与合规 合规团队/部门 确保遵守内部和外部合规要求。治理与合规 数据治理官 管理组织内的数据治理,确保符合政策、数据隐私法和监管合
33、规要求。治理与合规 信息安全官 授权官员、管理官员或信息系统所有者,以确保为包括ISSO、ISM和ISS在内的信息系统或项目保持适当的操作安全态势。治理与合规 21 技术和安全技术和安全 角色名称 角色描述 安全运营团队 实施和监控安全协议以保护数据和系统。网络安全团队 保护网络免受威胁和漏洞。云安全团队 确保基于云的资源和服务的安全性。网络安全团队 防止网络威胁、漏洞和未经授权访问组织资产。IT运营团队 支持和维护IT基础设施,确保其运营和安全。网络安全官 监督网络的安全性,确保数据保护和威胁缓解。硬件安全团队 保护物理硬件免受篡改和未经授权的访问。系统管理员 管理和配置IT系统和服务器,以
34、实现最佳性能和安全性。运营与发展运营与发展 角色名称 角色描述 数据管理人 负责安全保管、运输、数据存储和业务规则的实施。这是代表数据所有者获取、操纵、存储或移动数据的任何组织或个人。AI开发团队 开发和实施AI模型和解决方案。质量保证团队 测试并确保AI应用程序和系统的质量。人工智能运营团队 管理人工智能系统的运行,以提高性能和可靠性。应用程序开发团队 开发应用程序,根据需要集成AI功能。AI/ML测试团队 专门测试AI/机器学习模型的准确性、性能和可靠性。开发运营(DevOps)团队 提高部署效率,保持运营稳定性。22 开发安全运营(DevSecOps)团队 在整个软件开发生命周期(SDL
35、C)中实施安全性。AI维护团队 确保人工智能系统和模型在部署后得到更新、优化和正确运行。项目管理团队 监督人工智能项目从启动到完成,确保其达到目标和时间表。运营人员 支持日常运营,确保人工智能技术的顺利集成和运行。数据科学团队 收集并准备数据,用于AI模型训练和分析。容器管理团队 管理容器化应用程序,促进部署和可扩展性。IT运营团队 确保IT基础设施正常运行,支持人工智能和技术需求。AI开发经理 领导人工智能开发项目,指导团队成功实施。人工智能运营主管 指导与人工智能相关的运营,确保人工智能解决方案的效率和有效性。规范性引用文件规范性引用文件 以下列出的文件对于应用和理解本文件至关重要。Gen
36、erative AI safety:Theories and Prac tices OpenAI Preparedness Framework Applying the AIS Domain of the CCM to Generative AI EUAI Act Biden Executive Order on Safe,Secure,and Trust worthy Artificial Intelligence OWASP Top 10 for LLM Applications CSA Cloud Controls Matrix(CCM v4)MITRE ATLAS(Adversaria
37、l Threat Landscape for Artificial-Intelligence Systems)NIST Secure Software Development Framework(S SDF)NIST Artificial Intelligence Trust worthiness and Risk Management Framework-General Data Protec tion Regulation(GDPR)23 OWASP LLM AI Cybersecurity&Governance Checklist OWASP Machine Learning-Top 1
38、0 WEF Briefing Papers Building the AI-Powered Organization 一、一、将数据安全和隐私纳入人工智能训练将数据安全和隐私纳入人工智能训练 人工智能正在从以复杂模型为中心的方法转向以数据为中心的方式。人工智能现在不再主要依赖于在小数据集上训练的复杂模型,而是利用海量数据集和开放式数据流。然而,这种以数据为中心的模式也引发了人们对数据隐私、安全、偏见和适当使用的合理担忧,人工智能社区必须负责任地解决这些问题。数据正在改变人工智能,但我们必须确保它是合乎道理理念和受控的。以下部分讨论了与确保人工智能组织中培训数据的安全性和隐私性相关的重要类别。这
39、些类别包括数据真实性、匿名/假名化、数据最小化、数据访问控制和安全存储与传输。每个类别都通过可量化的评估标准、通过 RACI 模型明确界定的责任、高级实施策略、持续监控和报告机制、访问控制映射以及基于行业最佳实践的基本框架进行了彻底分析。这种全面的方法确保了一个结构化、负责任和高效的框架,用于管理推动人工智能进步的重要资产,同时也符合道德要求和卓越运营。1.1 数据真实性和许可管理数据真实性和许可管理 AI 中的数据真实性是指保证用于训练、测试和部署 AI 模型的数据是真实、准确和可靠的。这是关于验证数据没有被篡改或更改,以免误导人工智能算法或导致不准确、有偏见或不可靠的模型输出。确保数据真实
40、性至关重要,因为 AI 模型严重依赖数据质量和完整性。如果数据不真实或被操纵,模型可能会学习不正确的模式,导致性能不佳,并可能基于这些预测做出不正确的决策。数据真实性在基于 AI 模型的决策对各个行业产生重大24 影响的领域尤为重要,例如教育、医疗保健、金融服务、零售、制造、政府服务和网络安全。此外,在为人工智能应用程序收集和处理个人数据时,必须获得适当的数据同意并遵守通用数据保护条例(GDPR)等法规。GDPR 要求组织在收集和处理个人数据之前获得个人的明确同意,并赋予个人访问、更正和删除其数据的权利。评估标准:定期测量经过真实性审核的数据百分比,目标是在规定时间内进行100%验证。此外,监
41、控数据许可和 GDPR 法规的合规性。在任何可能的情况下,个人都应有权更正有关他们的数据。这是联邦贸易委员会在保险方面的要求,例如:联邦贸易委员会推行人工智能监管,禁止有倾向性的算法。(https:/ 模型:数据管理团队(执行)、首席数据官(负责)和法律合规部门(咨询)、安全团队(告知)。高级实施策略:实施定期数据真实性审计的政策,其中可能涉及数据来源检查和异常检测等技术。此外,建立获取数据同意、确保数据隐私和遵守GDPR 规定的流程。持续监测和报告:用于认证的已核实数据的定期报告、未经授权的数据变更以及遵守数据同意和 GDPR 规定。通过确保数据真实性、获得适当的数据同意并遵守 GDPR 等
42、法规,组织可以在尊重个人隐私和个人数据权利的同时建立值得信赖的 AI 模型。1.2 匿名化和假名化匿名化和假名化 匿名化和假名化在值得信赖的人工智能系统中保护个人数据隐私,如下所示:25 匿名化永久地从数据中删除标识符,这使得重新识别个人身份变为不可能,有助于遵守数据保护法,在许多情况下,例如根据GDPR,甚至可以将匿名数据排除在数据保护法规的范围之外。假名化将标识符替换为系统生成的标识符或人工标识符假名。个人仍然与他们的数据保持联系,但真实身份受到保护。根据某些数据保护法规,如GDPR 和 HIPAA,假名化是一项要求。评估标准:目标是通过以下方式将可识别的个人数据减少99%匿名化和假名化技
43、术。区分直接标识符(如全名、SSN 和信用卡号)和准标识符非常重要。直接标识符需要更严格的减少措施,因为能够使用它们来高度确定地识别个人。此外,信用卡号等直接标识符可能导致盗窃,而 SSN 等标识符可能导致身份盗窃。准标识符(年龄、邮政编码和性别)虽然对隐私很重要,但可以进行不太严格的削减,以确保数据保护和可用性之间的平衡。也就是说,许多准标识符可能会在人工智能中引发偏见(例如,年龄、地点、性别、种族、性取向)。此外,某些准标识符可能属于特殊类别的个人数据(GDPR 第 9 条-特殊类别个人数据的处理)(https:/gdpr-info.eu/art-9-gdpr/),需要特别谨慎,包括宗教信
44、仰、政治派别、性取向和种族血统。准标识符也可能被组合起来重新识别一个人。虽然准标识符对于人工智能系统的可用性和功能至关重要,特别是在医疗保健或营销等领域,但它们存在重新识别的风险。当不同的数据集被组合在一起时,即使它们被匿名或假名化,这些准标识符也可能被对齐以重新识别个人。例如包含匿名医疗记录的数据集可以与公开可用的数据集相结合,如选民登记记录。如果两个数据集都包含详细的人口统计信息,则有可能基于这些准标识符匹配记录,从而重新识别匿名数据集中的个人。为了降低这种风险,需要采取平衡的方法。不断评估重新识别的风险至关重要,尤其是随着数据处理技术的发展和变得更加复杂。采用例如差分隐私等先进技术,在数
45、据中添加统计噪声以防止重新识别,可以进一步加强隐私保护。此外,定期审计和合规检查对于确26 保数据匿名化和假名化过程与不断发展的数据保护法律法规保持一致至关重要。RACI 模型:数据保管人(执行)、数据保护官(咨询)、首席隐私官主管(负责)、法律团队(咨询)、IT 团队(告知)、安全团队(咨询)、数据治理团队(咨询)和数据专家(告知)。高级实施策略:实施最先进的匿名化和假名化技术涉及利用先进的加密方法,如差分隐私、同态加密和安全多方计算来保护敏感数据,同时保持其分析效用。例如,公司可以采用“K-匿名性”、“L-多样性”和“T-封闭性”等技术来确保个人身份隐藏在数据集中,同时仍然允许进行有意义的
46、分析。此外,可以采用标记化和数据屏蔽等技术,用不敏感的等效数据替换敏感数据,进一步加强隐私保护。持续监测和报告:定期评估这些措施的有效性技术。访问控制映射:限制对编辑或匿名化规则和去假名化工具的访问。基础防护措施:遵循通用数据保护条例(GDPR)关于数据匿名化和假名化的指导方针,以及基于云服务的令牌化指南。1.3 数据最小化数据最小化 数据最小化是指只使用实现特定目的或功能所需的必要数据量的做法。这种做法是许多数据保护法规(如 GDPR)的要求。这也是可用于防止匿名数据重新识别的技术之一。这种技术限制了为机器学习目的收集、存储和使用的数据的数量和类型。这种做法有助于保护数据主体的隐私和安全,并
47、提高机器学习模型的性能和效率。在机器学习中,数据最小化涉及仔细选择对模型训练和性能至关重要的特征和数据点,同时排除无关或过多的数据。这与可信赖人工智能的可解释性、公平性、透明度和隐私基础支柱有关。27 评估标准:旨在根据组织的业务目标和责任收集的非必要数据至少减少一个良好的百分比。RACI 模型:数据收集团队(执行)、数据隐私办公室(咨询)、数据治理委员会(负责),合规团队(咨询),安全团队(告知),数据专家(告知)。高级别实施战略:制定严格的数据收集指南,重点关注最小的数据采集。持续监测和报告:跟踪收集的数据量并评估其必要性。访问控制映射:对谁可以授权额外的数据收集实施控制。基础框架:采用
48、GDPR 中的隐私设计原则。1.4 数据访问控制数据访问控制 机器学习中的数据访问控制:涉及管理和限制谁可以访问用于训练、测试和部署机器学习模型的数据并与之交互。此过程确保只有授权的个人或系统才有能力查看、修改或使用数据。在机器学习环境中,有效的访问控制对于保护敏感信息、维护数据完整性和遵守隐私法规至关重要。它通常涉及验证用户身份的验证机制、根据用户角色授予用户特定访问权限的授权协议,以及跟踪数据访问和使用情况的审计系统。通常在一个组织中,AI 模型是在从各种数据源或系统聚合的数据上运行的。因此,AI 模型应尊重底层数据源系统的访问控制定义和策略。这意味着,根据数据保管人或系统管理员定义的访问
49、控制规则和权限,AI 模型应该只能访问他们有权处理的特定数据。保持适当的访问控制可确保数据隐私、安全,并符合整个人工智能基础设施的监管要求,并防止 AI 模型未经授权访问或滥用敏感或机密数据。评估标准:每年未经授权的数据访问事件低于 0.5%28 RACI 模型:安全团队(执行)、首席信息安全官(负责),数据治理机构、数据保管人、IT 团队(咨询)、运营团队(告知)。高级实施策略:实施分层安全模型,作为访问控制高级实施策略的一部分。该模型不仅应集成身份验证和授权协议,还应集成多因素身份验证(MFA)、基于角色的访问控制(RBAC)和最小特权原则(PoLP)等先进技术。持续监控和报告:监控访问日
50、志并进行审计。采用一种可以对关键模型、生成模型和数据的有风险的访问进行标记的工具。访问控制映射:定期监控和管理访问权限。基础框架:根据 ISO/IEC 42001、ISO/IEC 27001、ISO/IEC 27701、NIST 800-53 和 OWASP Top 10 A07:2021-识别和身份验证失败实施最佳实践。1.5 安全存储和传输安全存储和传输 在机器学习中,安全存储和传输对于保护敏感数据至关重要。安全存储涉及加密静态数据以防止未经授权的访问,采用强大的访问控制,并定期进行安全审计。为了安全传输,传输中的数据使用传输层安全(TLS)、字段或信封加密等协议进行加密。这确保了数据在系
51、统或网络之间传输时保持机密性和完整性。通过防止未经授权的访问、使用和披露数据,以及恶意或意外修改、删除或损坏数据,增强了数据和机器学习模型的安全性。评估标准:对传输和静止的 100%数据保持 256 位 AES 或更高的加密标准。RACI 模型:安全团队(执行)、首席信息安全官(负责),合规和法律团队(咨询),管理层(告知)。29 高层实施策略:投资先进的加密技术,并根据政策自动删除人工智能数据和模型。持续监控和报告:使用工具进行实时安全监控。访问控制映射:将安全存储和传输与访问控制集成在一起。基础框架:遵循美国国家标准与技术研究院(NIST)的指导方针和隐私法,保护传输和静止的数据。二、二、
52、模型安全模型安全 模型安全是一项多方面的任务,包括各种各样的组件。这些包括对模型 API 的访问控制、身份验证和授权框架、速率限制、模型生命周期管理、安全的模型运行环境、基于硬件的安全功能、网络安全控制、操作系统强化和安全配置、容器和云环境中的安全。我们应该探索这些关键领域中的每一个评估标准,使用 RACI 模型分配责任,依据高级实施策略,建立持续监控和报告机制,建立访问控制列表,并参考 NIST AI RMF、NIST SSDF、NIST 800-53 和 CSA CCM 等标准中的基础框架。2.1 模型访问控制模型访问控制 访问控制在保护 AI 模型和确保只有授权人员和系统与敏感数据和功能
53、交互方面至关重要。在 AI 模型治理领域,访问控制措施必须稳定、适应性强,并与组织和行业安全标准保持一致。从身份验证和授权,到速率限制和生命周期管理,AI 模型的完整性取决于强大而灵活的访问控制协议。这些协议规定了谁可以访问 AI 模型,何时可以访问,以及在什么情况下可以访问。随着组织应对人工智能部署的复杂性,实施全面的访问控制策略。对于降低风险、保护知识产权和维护监管合规标准变得势在必行。此30 外,我们强调将 AI 模型访问控制与组织现有的安全框架相结合,以增强整体系统的可扩展性。这涉及细化访问策略,规定谁可以与 AI 模型交互以及在什么情况下交互。此外,实施强身份验证机制,如多因素身份验
54、证和基于角色的访问控制,可以进一步加强人工智能系统的安全。定期审计和监控访问日志对于及时发现和应对任何未经授权的访问尝试至关重要。通过将 AI 模型访问控制与现有安全框架紧密结合,组织可以加强对网络威胁的防御,并确保其人工智能系统和数据的完整性和机密性。2.1.1 身份验证和授权框架身份验证和授权框架 机器学习模型的身份验证和授权框架确保了对机器学习模型和相关数据的访问受到严格控制和管理,对于安全至关重要。身份验证通常验证用户或系统的身份,常用密码、令牌或生物特征验证等方法。同时,通过访问级别的授权,定义了谁可以根据既定的角色和权限查看、编辑或使用模型。这对于保护敏感信息、保持数据完整性以及遵
55、守隐私和安全法规至关重要,从而防止对机器学习模型及其数据的未经授权的访问或修改。在人工智能中,特定的验证是所有用户和实体根据目的和背景批准、适当地使用人工智能数据和模型。这与数字版权相融合,是访问和授权的基础。评估标准:在AI 模型中实现 100%的身份验证和授权覆盖率(见 1.2.1)。RACI 模型:安全团队(执行)、首席信息安全官(负责),法律团队(咨询),人工智能开发团队(告知)。高级实施策略:开发和实施安全的 AI 模型访问的综合框架。持续监控和报告:定期审核身份验证和授权机制。访问控制映射:根据模型特定要求自定义访问。基础框架:使用 NIST 800-207、NIST 80053、
56、NIST SP 80063 和 NIST AI RMF 进行风险管理。31 2.1.2 模型接口速率限制模型接口速率限制 机器学习中的模型接口速率限制涉及限制用户或系统在给定时间范围内向模型发出的请求数量。这种做法对于管理模型上的负载、防止滥用(如拒绝服务攻击)以及确保用户之间的公平资源分配至关重要。我们可以在用户与模型交互的各种接口(如 API 或 web 界面)实现速率限制。控制请求率有助于保持模型的性能、稳定性和可用性,确保其即使在高需求或潜在攻击场景下也能继续高效可靠地运行。评估标准:减少因拒绝服务(DoS)或分布式拒绝服务(DDoS)攻击导致的停机时间。RACI 模型:平台支持团队(
57、执行)、解决方案负责人(责任)、数据专家(咨询)、风险管理团队(咨询)和 AI 模型用户(告知)。高级实施策略:实施速率限制,防止过度使用或滥用AI 模型接口。持续监控和报告:跟踪使用模式并相应调整速率限制。访问控制映射:实施基于用户的速率限制策略。基础框架:遵循 OWASP LLM 04:模型拒绝服务。2.1.3 模型生命周期管理中的访问控制模型生命周期管理中的访问控制 访问控制涉及在机器学习模型整个生命周期(开发、部署和维护阶段)中,管理和调节与机器学习模型的访问和交互。此过程确保只有授权人员或系统才能在各个阶段与机器学习模型交互,从而保护模型免受未经授权的访问或更改,这种访问或更改可能会
58、导致模型完整性或性能问题受损。实施访问控制对于维护机器学习模型的安全性和有效性至关重要,因为它有助于防止可能的数据泄露、模型滥用,并能确保遵守数据隐私和安全法规。在模型生命周期的每个阶段,如果做了控制访32 问,组织可以保护他们的机器学习资产,同时培养一个安全高效的机器学习的开发环境。模型生命周期管理中的访问控制能够提高机器学习模型的透明度和可追责性,能够为数据访问使用提供一致和明确的策略和程序,并记录数据来源地址和目的地址。这一领域与人工智能的隐私性、透明度和可溯源性有关,是可以被信赖的。评估标准:确保在模型生命周期的所有阶段,对 AI 模型和数据的访问仅限于授权用户和系统。RACI 模型:
59、AI 模型治理团队(执行)、首席数据官(责任)、安全团队、法律团队、合规团队(咨询)、运营人员(告知)高层实施策略:根据敏感度对数据和模型进行分类。为模型生命周期的每个阶段定义映射到用户角色的不同访问控制规则。将访问控制与现有的 IAM(身份和访问管理)解决方案集成。记录并审核所有访问请求和数据/模型使用情况。持续监测和报告:在未经授权的访问尝试时发送警报。执行用户访问审查和重新认证。定期对访问和控制进行审计。为可疑活动建立警报阈值。访问控制映射:开发阶段:限制对数据专家和机器学习工程师的访问 33 测试阶段:为质量保证团队添加访问权限 生产阶段:授予严格控制的生产系统访问权限 基础框架:符合
60、 NIST 800-53、NIST AI RMF 框架等标准 根据 CSA CCM 等最佳实践框架验证控制措施。2.2 安全的模型运行环境安全的模型运行环境 为安全的 AI 模型运行环境构建能够具有伸缩性的系统需要融合强大的硬件、网络和软件安全控制,以保护人工智能部署免受不断变化的威胁为首要重点,组织应该精心设计和增强其运行的环境,以维护其完整性、机密性和可用性。在可信执行环境中,基于硬件的安全功能从防火墙到局域网隔离等网络安全控制,每个组件都错综复杂地融入了深度防御策略的结构中。依据 NIST AI RMF、NIST 800-53 和CSA CCM 等行业标准,我们应进行团队的跨学科合作,协
61、调实施、监控并管理这些关键的安全措施。2.2.1 基于硬件的安全功能基于硬件的安全功能 机器学习模型的基于硬件的安全特性包括计算硬件中的物理环境和整体架构,这些元素增强了机器学习应用程序的安全性。具体的硬件包括:可信执行环境(TEE)、用于隔离和安全处理的机密计算、用于保护敏感代码和数据的安全、用于安全处理的硬件安全模块(HSM)加密操作、确保可信软件初始化的安全引导机制,以及防止未经授权的物理访问的防篡改机制。这些功能在提供基础安全层方面至关重要,尤其是在金融、医疗保健或国防等高风险领域,机器学习模型通常都处理敏感数据,并且非常需要针对各种威胁(包括篡改和未经授权的访问)进行强有力的保护。3
62、4 评估标准:在适用的情况下,公司定义的人工智能系统使用基于硬件的安全功能的百分比。RACI 模型:硬件安全团队(执行)、首席技术官(负责)、采购部门(咨询)、系统管理员(告知)。高级实施策略:在 AI 系统中集成可信执行环境(如 NVIDIA 的机密计算方法)、GPU、TPU 和其他硬件安全措施。持续监控和报告:定期检查硬件安全。访问控制映射:确保只有授权人员才能访问硬件安全设置。基础框架:实施 NIST AI RMF 和NIST 800-53 指南。2.2.2 网络安全控制网络安全控制 机器学习模型的网络安全控制是为保护机器学习模型及其相关数据免受基于网络的威胁和漏洞而实施的措施和协议。通
63、过采用零信任架构,将人工智能系统与更广泛的网络隔离开来。它通过隔离人工智能系统和机器学习模型来减少攻击面,使攻击者更难在网络中横向移动。这些控制对于在传输过程中保护机器学习模型中使用的数据、防止未经授权的访问以及确保机器学习通信的完整性和机密性至关重要。网络安全的关键控制包括:使用下一代防火墙进行监测、控制流入、流出的网络流量、运用加密协议等,用于保护传输中数据的 TLS,入侵检测和预防系统(IDPS),用于识别和减轻攻击的 Web 应用程序防火墙(WAF),用于创建安全通信信道的虚拟专用网络(VPN),以及用于管理和验证对机器学习模型的 API 调用的安全 API 网关。这些措施在机器学习(
64、数据和模型安全至关重要)环境中非常重要,尤其是在通过网络(包括互联网或云环境)访问或管理模型时。评估标准:在整个AI 系统中实现100%符合网络安全策略。RACI 模型:网络安全团队(执行)、首席信息安全官(负责),IT 运营(咨询),所有网络用户(告知)。35 高层实施策略:实施全面的网络安全措施,如防火墙和分段。持续监控和报告:定期监控网络入口和出口流量以及基础设施内的流量,并强制执行控制合规性。定期进行渗透测试和漏洞评估是一种积极主动的方法,有助于在网络安全控制中发现潜在的弱点,从而确保机器学习模型及其数据得到强有力的保护。访问控制映射:根据特定角色和模型要求定制网络访问控制。基础框架:
65、与网络安全相关的CIS 控件V8(https:/www.cisecurity.org/insights/white-papers/cis-controls-v8)2.2.3 操作系统级强化和安全配置操作系统级强化和安全配置 机器学习模型的操作系统级强化和安全配置涉及强化运行机器学习模型和应用程序的底层操作系统(OS),以降低风险和减少漏洞。这个过程对于为机器学习操作创建一个安全的环境至关重要,因为操作系统是这些应用程序的基础层。关键方面包括:定期更新和补丁管理:使操作系统及其组件保持最新的安全补丁和更新,以防止已知的漏洞。最小化安装:删除或禁用操作系统中 ML 操作不需要或不必要的服务、应用程
66、序和功能,最大限度地减少潜在的攻击面。配置安全设置:调整操作系统设置以增强安全性,例如启用防火墙、配置用户权限以及实施规定如何访问和使用系统的安全策略。用户访问控制:实施严格的用户访问控制,确保只有授权用户才能访问机器学习系统,并应用最小权限原则,即只授予用户执行任务所需的访问权限。监控和审计:设置监控和审计工具来跟踪操作系统中的活动和变化,这可以帮助检测和应对安全事件。36 安全通信协议:确保与机器学习系统之间的所有通信都是加密和安全的。这些措施有助于为机器学习系统创建强大的安全态势,保护它们免受可能损害机器学习模型及其数据的完整性、机密性和可用性的各种威胁。评估标准:确保 100%的 AI
67、 系统在强化操作系统和安全配置下运行。RACI 模型:系统管理团队(执行)、首席信息安全官(负责)、安全团队(咨询)、最终用户(告知)。高级实施策略:在操作系统强化和安全配置设置中应用最佳实践。持续监控和报告:监控安全威胁的合规性和漏洞。访问控制映射:限制谁可以更改系统配置。基础框架:利用NIST 800-53、CIS 和DISA STIG 基准进行安全配置。2.2.4 K8s 与容器安全与容器安全 K8s 和容器安全旨在保护容器化的机器学习应用程序及其部署环境的实践和工具。K8s 是一个容器编排平台,容器化技术被广泛用于部署和管理机器学习模型和工作负载。在这种情况下,具体的安全包括:确保容器
68、在良好的风险管理框架下安全配置并减少漏洞,实施强大的 K8s 集群安全(包括网络策略、访问控制和 pod 安全),以及保护 K8s 环境中的通信通道。此外,包括管理容器权限、定期扫描漏洞,以及执行管理容器如何在机器学习工作流中运行和交互的策略,保护机器学习模型和数据免受未经授权的访问、漏洞和容器化部署环境中的其他安全威胁。评估标准:目标是降低 AI 系统中容器环境的安全漏洞率。RACI 模型:容器管理团队(执行)、CTO(负责),安全团队(咨询)、DevOps 团队(咨询)、应用程序开发团队(告知)。高级实施策略:确保在容器化环境中安全部署人工智能应用程序。37 持续监控和报告:对容器编排工具
69、进行定期安全评估。访问控制映射:为容器环境定义并执行严格的访问策略。基础框架:遵循OWASP K8s TOP10、NIST SSDF、CNCF 安全白皮书、CIS 基准、NIST 800-190 和 NIST 800-53 最佳实践。2.2.5 云环境安全云环境安全 机器学习模型的云环境安全包括为保护基于云的基础设施中的机器学习模型及其相关数据而实施的策略和措施。这涉及保护云上的数据存储和处理、管理对云资源的访问控制、加密静态和传输中的数据以及确保部署在云平台上的机器学习模型的安全性。它还包括定期漏洞评估、遵守特定于云的安全标准,以及实施身份和访问管理的最佳实践。这种安全性对于防止未经授权的访
70、问、数据泄露和其他网络威胁至关重要,可确保云环境动态和分布式性质中机器学习模型和数据的完整性和机密性。评估标准:努力在 AI 部署中100%遵守云安全策略。RACI 模型:云安全团队(执行)、首席信息安全官(负责),IT 治理(咨询),云服务用户(告知)。高层实施策略:为人工智能系统实施稳健的云安全措施。持续监控和报告:使用特定于云的监控工具来检测威胁并发出警报。访问控制映射:为基于云的AI 应用程序自定义访问控制。基础框架:采用 CSA CCM。坚持并优先考虑云原生应用程序保护平台CNAPP。38 2.3 漏洞和补丁管理漏洞和补丁管理 本章节中的职责和方法应纳入组织更广泛的安全和开发流程,从
71、而确保安全有效地开发、部署和维护人工智能系统。对这些流程的定期审查和更新将有助于适应不断发展的威胁和技术,这种定期审查可以识别软件缺陷、漏洞和弱点,并且对其进行排序,处理系统故障、报错和失败,让人工智能系统免于暴露遭受攻击。以下列举的这些技术位于组织中责任的各个方面,能够确保和提高人工智能系统的安全性、可靠性和可信度.2.3.1 机器学习代码完整性保护机器学习代码完整性保护 机器学习代码完整性保护是指为确保机器学习应用程序中使用的源代码的安全性和完整性而采取的措施和做法。这涉及保护代码免受未经授权的修改,确保其真实性,并在整个开发和部署过程中保持质量。最佳实践包括实施版本控制系统来跟踪和管理更
72、改,使用签名来验证代码的真实性,定期进行代码审查和审计以检测漏洞,以及使用静态和动态代码分析工具来识别潜在的安全问题。这些保护对于维护机器学习应用程序的可信度、防止恶意代码注入以及确保机器学习模型按预期运行和不受损害来说至关重要。评估标准:完整性保护覆盖的 ML 代码百分比 完整性检查的频率 已解决的关键漏洞百分比 责任(RACI 模型):人工智能开发团队(执行)、人工智能开发经理(负责)、安全团队、DevOps 团队(咨询)、合规团队(告知)。高层实施策略:对机器学习模型实施自动完整性检查。39 将完整性检查集成到 CI/CD 通道中。为机器学习代码建立定期漏洞评估。实施针对机器学习算法的安
73、全编码实践。对机器学习模型中的异常行为实施运行时监控。持续监测和报告:利用监控工具检测机器学习模型行为中的异常。为检测到的异常建立事件响应程序。定期报告完整性检查结果和发现的任何异常。访问控制映射:根据角色和职责授予对 ML 代码存储库的访问权限。实现访问 ML 代码的最小特权原则。对敏感的机器学习代码库使用多因素身份验证。基础框架:有关保护机器学习系统的指南,请参考 NIST AI RMF。实施 NIST 800-53 中建议的与机器学习系统相关的安全控制。遵守 CSA CCM,以考虑云特定的安全因素。2.3.2 机器学习训练和部署代码的版本控制系统机器学习训练和部署代码的版本控制系统 机器
74、学习培训和部署代码的版本控制系统是管理机器学习项目的重要工具,能使团队能够跟踪和管理用于培训和部署机器学习模型的代码库的更改。这些系统通过维护更改历史、允许轻松跟踪修改以及在需要时支持回滚到以前的版本,促进了40 开发人员和数据专家之间的协作。它们在处理各种版本的机器学习模型及其相关数据集方面至关重要,可确保机器学习实验和部署的一致性和可重复性。通过使用版本控制,团队可以有效地管理机器学习模型的生命周期,从开发和测试到部署和维护,同时确保整个过程中代码和模型的完整性和可追溯性。评估标准:受版本控制的代码百分比 提交和更新的频率 遵守版本控制策略 责任(RACI 模型):负责人:开发团队 批准人
75、:开发经理 咨询人:DevOps 团队、QA 团队 知晓人:安全团队 高层实施策略:实施集中式版本控制系统(例如 Git)强制执行分支和合并策略 在合并之前自动进行代码审查和检查 实施版本标记以进行发布管理 持续监测和报告:监控提交活动并识别不规则模式 41 对未经授权的更改或异常活动建立警报 定期审查版本控制日志以确保合规性 访问控制映射:根据角色定义存储库的访问控制列表 对存储库访问实施双因素身份验证 定期审核存储库访问以确保合规性 基础框架:遵循 NIST SSDF 的安全软件开发指南。实施 NIST 800-53 中概述的与版本控制和变更管理相关的控制措施。2.3.3 验证已批准版本的
76、代码签名验证已批准版本的代码签名 在机器学习环境中验证批准版本的代码签名是一种安全实践,其中数字签名用于验证机器学习模型中使用的软件代码的真实性和完整性。此过程通常是在代码经过审查和批准部署后,将加密签名附加到代码上。签名相当于签章,可以验证代码自签名以来是否被更改或篡改。在机器学习工作流中,代码签名对于确保用于训练、测试和部署机器学习模型的代码是准确的、授权的版本并且没有被恶意修改非常重要。这种做法有助于保持对机器学习软件供应链的信任,特别是当模型分布在不同的环境中或在多个团队或组织之间共享时。评估标准:用批准的证书签名的代码百分比 遵守代码签名政策 代码签名检查的频率 42 责任(RACI
77、 模型):负责人:开发团队 批准人:开发经理 咨询人:安全团队、发布管理团队 知晓人:合规团队 高层实施策略:在构建过程中实现代码签名 安全地管理代码签名证书 部署前自动执行代码签名检查 对签名代码实施时间戳,以防止重放攻击 持续监测和报告:监控代码签名活动和证书使用情况 对未经授权的代码签名尝试实施警报 定期审查代码签名日志以确保合规性 访问控制映射:仅限授权人员访问代码签名基础设施 对代码签名证书实施基于角色的访问控制 定期查看代码签名基础设施的访问日志 基础框架:43 参考与代码签名和完整性检查相关的 NIST 800-53 控制 2.3.4 基础设施即代码方法基础设施即代码方法 机器学
78、习模型的基础设施即代码方法(IaC)涉及通过可读的定义文件来管理和配置计算基础设施,而不是通过物理硬件配置或交互式配置工具。这种做法能够以一致和可重复的方式自动设置、配置和管理机器学习模型所需的基础设施,如服务器、存储和网络资源。基础设施即代码的方法允许机器学习团队在各种环境(如云、本地或混合设置)中快速部署和扩展他们的模型,只需最少的人工干预。这种方法提高了基础设施的效率和可靠性。通过部署机器学习模型,确保基础设施状态可维护、版本受控并符合定义,从而改善协作并降低机器学习项目中的运营风险。评估标准:按代码管理的基础设施百分比 遵守基础设施即代码最佳实践 基础设施更新和审查的频率 责任(RAC
79、I 模型):负责人:DevOps 团队 批准人:DevOps 经理 咨询人:开发团队、安全团队 知晓人:运营团队 高层实施策略:利用 IaC 工具,如 Terraform 或 AWS CloudFormation 对基础架构代码实施版本控制 44 自动化基础设施变更的测试和验证 实施基础设施漂移检测和补救 持续监测和报告:监控基础设施的变化和漂移 对未经授权或意外的更改实施警报 定期审查基础设施代码是否符合标准 访问控制映射:根据角色限制对基础架构代码存储库的访问 为基础设施即代码工具实施基于角色的访问控制 定期审核对基础架构代码存储库的访问权限 基础框架:遵循 NIST 800-53 指南,
80、对基础设施进行安全配置和管理。为云基础设施实施 CSA CCM 中概述的安全控制。2.4MLOps 流水线安全流水线安全 MLOps 流水线安全的关键领域包括源代码漏洞扫描、测试模型对攻击的鲁棒性、验证每个阶段的流水线完整性以及监控自动化脚本。2.4.1 源代码漏洞扫描源代码漏洞扫描 机器学习中的源代码漏洞扫描涉及使用自动化工具系统地检查机器学习应用程序的源代码中的安全漏洞和编码缺陷。这种做法对于早期发现和补救可能危及机器45 学习系统的潜在安全漏洞至关重要。扫描通常会检查常见的漏洞,如缓冲区溢出、注入缺陷、数据库的不安全使用以及可能导致意外行为或性能问题的编码实践。通过定期扫描机器学习代码,
81、开发人员和数据专家可以确保代码库符合安全最佳实践和标准,从而降低漏洞利用和违规的风险。这种主动的方法对于维护机器学习应用程序的完整性和可信度至关重要,特别是在处理敏感数据或在关键系统中使用时。评估标准:通过针对模型训练和部署中使用的源代码的百分比率和扫描的频次多少来作为评估标准。RACI:负责人:模型开发团队 批准人:首席信息安全官(CISO)咨询人:应用安全团队 知晓人:开发运营(DevOps)团队 高级实施策略:实施用于定期源代码漏洞扫描的自动化工具,并将这些工具集成到开发生命周期中。持续监控和报告:为代码扫描建立持续监控系统,并实时报告结果。访问控制映射:确保只有授权人员才能访问和修改源
82、代码和扫描工具。基础框架:以 NIST 800-53 标准和 CSA CCM 为指导原则。2.4.2 测试模型对攻击的鲁棒性测试模型对攻击的鲁棒性 在机器学习中测试模型对攻击的鲁棒性来评估机器学习模型,可以确定它们能够承受和应对各种对抗性攻击或操纵的能力。该测试对于识别机器学习模型中的潜在漏洞至关重要,这些漏洞可能被利用,从而产生不正确的结果、导致系统故障或46 泄露敏感信息。它通常包括用人为制作的输入(对抗性)探测模型,以评估其应对此类攻击的能力,分析模型在不同威胁场景下的行为,并验证其在面对意外或恶意输入时保持性能和准确性的能力。稳定性测试有助于确保机器学习模型的可靠性和安全性,特别是在至
83、关重要的应用中,如自动驾驶汽车、金融系统或医疗诊断。评估标准:通过攻击测试的模型百分比和测试的频率来衡量有效性。RACI:负责人:AI/ML 测试团队 批准人:AI/ML 开发主管 咨询人:安全分析师 知晓人:AI/ML 开发团队 高级实施策略:为模型开发一个强大的测试框架,重点是识别和减轻潜在的攻击媒介。持续监测和报告:实施持续评估模型稳健性的机制,并定期更新利益相关者。访问控制映射:适当地控制对测试框架和模型的访问。基础框架:参考 NIST AI RMF、NIST AI 100-2 E2023 对抗性机器学习:攻击和缓解的分类和术语以及其他相关标准中的最佳实践。2.4.3 验证每个阶段的流
84、水线完整性验证每个阶段的流水线完整性 在机器学习的每个阶段验证流水线完整性是指确保机器学习流水线的每个阶段(从数据收集和预处理到模型训练、评估和部署)正确安全运行。这涉及在每个阶段进行彻底的检查和验证,以防止数据损坏、未经授权的访问和其他可能损害流水线性能和模型准确性的漏洞。此类验证包括验证数据质量和一致性,确保安全的数47 据处理实践,评估模型训练过程的可靠性和可重复性,以及确认部署机制是安全的并按预期运行。这种全面的验证方法对于维护机器学习流水线的整体完整性和有效性至关重要,特别是在复杂或高风险的环境中,机器学习模型的准确性和可靠性就显得尤为重要。评估标准:重点是仔细监测 MLOps 流水
85、线的完整性。通过对每个阶段的检查采用百分比评估,并验证评估过程的深度和完整度,可以确保流水线的每个阶段都能够按预期运行,严格遵守既定的标准和最佳实践。RACI:负责人:DevOps 团队负责验证每个流水线阶段的日常任务。他们是验证过程的主要执行者,确保 MLOps 流水线的每个阶段都经过彻底检查和验证。批准人:工程主管对 MLOps 流水线的整体完整性负有最终责任。该角色涉及监督验证过程,并确保流水线符合必要的标准和要求。咨询人:质量保证(QA)团队是咨询性的,为验证过程提供专家建议和意见。他们的参与对于确定验证标准和审查验证结果至关重要。知晓人:项目经理随时了解流水线验证过程的状态和结果。这
86、确保他们了解可能影响项目时间表或交付成果的任何潜在问题或变化。高级别实施战略:系统验证 MLOps 流水线每个阶段的完整性。该战略包括为数据和流程完整性建立明确的程序和标准。它涉及对每个流水线阶段定义特定的验证测试和检查,确保从数据摄入到模型部署的每个环节都能正确安全地运行。持续监测和报告:验证流水线完整性的重要组成部分正在实施一个持续验证和实时报告系统。该系统应在出现任何差异或异常时进行检测,以便立即采取行动纠正问题。持续监控确保流水线始终保持安全高效。48 访问控制映射:严格的访问控制对于维护每个文件的完整性至关重要MLOps 流水线的阶段。这涉及定义和执行谁有权访问流水线的各个部分,在什
87、么条件下,以及以什么级别的权限。此类控制对于防止可能损害流水线完整性的未经授权的访问或修改至关重要。基础框架:为了确保遵循最佳实践,重要的是要使流水线验证过程符合既定的行业标准和指南,如 NIST 安全软件开发框架(SSDF)中概述的标准和指南。遵照此框架体系可以为安全性和效率提供基准,为稳健可靠的MLOps 流水线的开发和维护做引导。2.4.4 监控自动化脚本监控自动化脚本 这项任务涉及对所有脚本的高度监控,这些脚本使得机器学习生命周期的各个阶段都可以自动化处理,从数据预处理到模型部署和管理。评估标准:监控自动化脚本的有效性由两个主要指标来量化:持续监控下的自动化脚本的百分比占比和监控活动的
88、频率。此评估有助于确保所有脚本正确有效地运行,并及时发现和解决潜在问题。RACI:负责人:IT 运营团队主要负责 MLOps 流水线内自动化脚本的日常监控。他们的职责包括监督脚本的执行,确保其性能和安全性,并识别操作问题。批准人:首席技术官(CTO)对自动化脚本的管理和安全负全部责任。CTO 确保监控策略得到有效实施,并与组织的技术目标保持一致。咨询人:DevOps 团队提供关键的意见和专业知识,特别是在脚本部署和运营效率方面,对于加强流水线内使用的监测流程和工具至关重要。49 知晓人:MLOps 流水线中的所有利益相关者,包括数据专家、机器学习工程师和项目经理,都会随时了解自动化脚本的状态和
89、性能。这确保了流水线所有阶段的连贯性和透明性。为了保证整个 MLOps 流水线的一致性和透明性,所有利益相关者(包括数据专家、机器学习工程师和项目经理)都必须充分了解自动化脚本的状态和性能。这种做法不仅促进了流水线所有阶段的统一方法,而且确保了决策是基于最新和准确的信息,提高了人工智能部署的整体安全性和效率。高级别实施战略:实施全面的监测系统,所有自动化脚本都是必不可少的。该系统应跟踪脚本的性能和效率,以确保其符合既定的标准和实践。它应该无缝集成到 MLOps 流水线中,提供对自动化脚本行为和输出的持续监测。持续监测和报告:持续监测是及时识别的关键以及解决自动化脚本的问题。监控系统应能够生成实
90、时警报和报告,及时提供有关脚本性能、错误或安全问题的信息。这种持续的反馈对于维护 MLOps 流水线的操作完整性至关重要。访问控制映射:严格的访问控制对于保护自动化是必要的脚本和整个流水线。这涉及定义谁可以访问、修改或执行脚本。访问应基于特定角色的要求,确保只有授权人员才能进行更改,从而降低未经授权或有害修改的风险。基础框架:采用 CSA CCM 等既定框架中的最佳实践以及 NIST 提供的相关指导。50 2.5AI 模型治理模型治理 AI 模型治理包括几个关键领域:模型风险评估、业务审批程序、模型监控要求和新的模型验证流程。2.5.1 模型风险评估模型风险评估 机器学习中的模型风险评估涉及系
91、统性的评估机器学习模型在部署和使用中的潜在风险。该评估旨在识别和量化模型不准确、偏差或失败可能带来的不利影响。主要关注领域包括:评估模型在不同数据集和场景中的准确性和通用性,评估有偏见或不公平结果的可能性,以及了解模型在边缘情况或对抗条件下的行为。模型风险评估还考虑了模型失败的后果,特别是在医疗保健、金融或公共安全等关键应用中。这一过程对于识别和减轻风险至关重要,以确保通过清楚地了解机器学习模型的局限性和潜在影响,负责任地安全部署机器学习模型。评估标准:评估正在进行风险评估的模型的百分比以及这些评估的全面性。RACI:负责人:风险管理团队、数据治理委员会 批准人:首席风险官(CRO)咨询人:人
92、工智能伦理委员会、法律顾问 知晓人:数据科学团队 高级实施策略:开发一个框架来评估与 AI 模型相关的风险,包括偏见、公平性和数据隐私。持续监控和报告:实施持续风险监控工具,并制定报告风险的协议,作为软件供应链的一部分。51 访问控制映射:确保对风险评估工具和数据的访问受到严格控制和监控。基础框架:与 NIST AI RMF 和 NIST 800-53 在风险管理实践方面保持一致。2.5.2 业务审批程序业务审批程序 这包括组织批准机器学习模型部署到生产中所遵循的正式流程和协议。这些程序确保任何机器学习模型都与业务目标保持一致,符合监管和道德标准,并达到所需的性能基准。通常,这涉及一个多步骤的
93、审查过程,其中包括数据的各种利益相关者、科学家、业务分析师、风险管理团队,有时还有法律和合规部门,用于评估模型的有效性、可靠性和潜在的业务影响。经常评估的关键方面包括模型的预测准确性、验证数据集的性能、潜在的偏见或道德问题,以及对数据隐私法的遵守情况。这些程序的目的是建立一种可受控和可知情的方法来部署机器学习模型,最大限度地降低业务风险,并确保负责任地使用人工智能技术。比如,OpenAI 的相关程序就是一个很好的例子。评估标准:跟踪批准部署的 AI 模型的百分比以及对批准指南的遵守情况。RACI:负责人:项目管理团队 批准人:首席人工智能官 咨询人:业务部门负责人 知晓人:所有 AI 利益相关
94、者 高层实施战略:建立明确的 AI 模型审批程序,让相关利益相关者参与决策过程。持续监控和报告:维护审批流程和决策的记录,并建立定期审查机制。52 访问控制映射:控制对审批文件和决策工具的访问。基础框架:遵循最佳实践,如 NIST SSDF 和 CSA CCM。2.5.3 模型监控要求模型监控要求 模型监控要求指的是在部署到生产环境后跟踪和评估机器学习模型性能的持续过程。这种监控对于确保模型在不同条件下随着时间的推移是否能继续按预期运行至关重要。模型监控的关键方面包括:跟踪模型的预测准确性,检测模型输入或输出中的任何漂移(数据漂移或概念漂移),监控预测中的任何偏差或不公平迹象,以及关注机器学习
95、系统的整体健康和性能。此外,监测应包括提醒相关利益相关者,模型性能发生重大变化或异常,有助于及时识别和解决模型退化、底层数据模式的变化或新出现的偏差等问题,确保机器学习模型保持有效、公平,并与预期目的保持一致。评估标准:根据监测活动的频率和深度评估模型。RACI:负责人:人工智能运营团队 批准人:人工智能运营主管 咨询人:质量保证团队 知晓人:业务分析师 高级实施策略:实施一个全面的模型监控系统,跟踪性能、准确性和合规性。最近的机器学习监控技术包括数据和概念检测、模型性能跟踪、特征属性分析、偏差检测和实时警报等功能。Sage Maker 等模型监视器产品展示了这些功能,它捕获实时推理数据并将其
96、与基线对比;谷歌云人工智能平台预测监控,提供模型预测和数据漂移的见解;以及各种人工智能监控53 和可解释性平台,使团队能够监控、解释和分析生产中的机器学习模型,检测数据漂移、模型漂移和偏差等问题。持续监测和报告:建立持续数据收集和报告系统分析,并对性能下降或异常发出警报。访问控制映射:限制对监控工具和敏感数据的访问。基础框架:利用 NIST 800-53 的监测协议指南。2.5.4 新模型验证过程新模型验证过程 新模型验证过程涉及在将新的机器学习模型部署到生产环境之前,对其进行严格测试和验证的系统程序。这些过程旨在确保模型满足预定义的准确性、可靠性和公平性标准,并且确保没有导致不正确或不公平结
97、果的缺陷或偏差。验证通常包括对不同数据集进行广泛测试,以评估模型的性能和可推广性,检查潜在的偏见或道德问题,以及评估模型对对抗性攻击或数据异常的防范。此外,验证过程通常涉及对模型文档和开发实践进行审查,以确保符合行业标准和最佳实践。这些验证过程旨在建立对新模型的能力和部署准备的信心,确保它们按预期运行,并按照业务目标和道德准则提供价值。评估标准:通过度量一个完整性,该完整性是全面验证一个模型是否完整的百分比。RACI:负责人:人工智能开发团队 批准人:首席数据官或首席技术官 咨询人:IT 安全团队 知晓人:高级管理层 54 高级实施策略:制定一个严格的流程来验证新模型,包括测试准确性、偏差和安
98、全漏洞。持续监测和报告:建立一个协议,对部署后的新模型进行持续评估。访问控制映射:确保严格控制谁可以批准和部署新模型。基础框架:与 NIST AI RMF 保持一致,以验证最佳实践。2.6 安全模型部署安全模型部署 这涉及一系列实践,以确保部署过程安全、可控并符合组织标准。关键领域包括部署授权程序、灰度发布、蓝绿色部署、回滚功能和报废模型。2.6.1 灰度发布灰度发布 灰度发布是一种技术,这个技术可以在大范围推广前,先逐步将新的机器学习模型推广到一小部分用户,从而能够最大限度地降低将可能引入到生产的风险。这种技术能够让团队在实际数据和用户交互的真实环境中测试和监控模型的性能,但其规模有限。评估
99、标准:通过成功率和这些初始部署中问题的检测来监控灰度发布的有效性性。RACI:负责人:DevOps 团队 批准人:人工智能运营主管或首席技术官 咨询人:质量保证(QA)团队 知晓人:产品管理团队 55 高级实施策略:将灰度发布作为部署过程中的一个步骤,在实际环境中逐步测试模型。持续监控和报告:对灰度发布进行实时监控,以快速识别和解决问题。访问控制映射:确保只有指定的团队成员可以启动和监控灰度发布。基础框架:遵循 NIST SSDF 和 NIST 800-53 的部署指南。2.6.2 蓝绿部署蓝绿部署 蓝绿部署是软件部署中的一种策略,通过运行两个相同的生产环境(称为“蓝色”和“绿色”)来减少停机
100、时间和风险。这种方法在机器学习中特别有用,因为部署新模型会对应用程序性能和用户体验产生重大影响。评估标准:根据部署过程中过渡的顺利程度和停机时间来评估部署策略。RACI:负责人:IT 运营团队 批准人:首席技术官(CTO)咨询人:DevOps 团队 知晓人:最终用户 高级实施策略:采用蓝绿部署策略,以减少与部署新模型相关的停机时间和风险。持续监控和报告:持续监控蓝色和绿色环境的性能和问题解决方案。访问控制映射:管理对两个环境的访问控制,确保安全性和完整性。基础框架:利用 NIST 相关指南中的最佳实践。56 2.6.3 回滚功能回滚功能 回滚功能是指当新部署的模型表现出意外行为、性能不佳或导致
101、其他问题时,在生产环境中恢复到检查点先前版本的过程。这是部署策略的一个关键方面,即使新模型未能达到预期,也能确保系统的稳定性和性能。评估标准:在需要时,通过回滚的速度和成功率来衡量有效性。RACI:负责人:部署团队(DevOps 团队)批准人:人工智能运营主管或首席技术官 咨询人:IT 支持团队 知晓人:商业利益相关者 高级实施策略:确保部署过程包括高效的回滚功能,以便在必要时恢复到以前的版本。持续监控和报告:监控部署以快速检测需要回滚的问题。访问控制映射:控制对回滚工具和过程的访问。基础框架:与 CSA CCM 和其他安全框架保持一致。2.6.4 报废模型报废模型 报废模型是指从活动生产环境
102、中安全、系统地删除机器学习模型的过程。当模型过时、被更高级的版本取代或不再满足不断发展的业务需求或合规标准时,这一过程至关重要。报废是机器学习模型生命周期管理中的关键步骤,以确保过时的模型不会危及系统的完整性或效率。57 评估标准:通过正确处理报废模型的百分比和遵守报废协议来评估这一过程。RACI:负责人:人工智能维护团队(DevOps)批准人:数据治理官或首席技术官)咨询人:法律与合规团队 知晓人:人工智能开发团队 高层实施策略:制定明确的程序,安全地停用过时或冗余的 AI 模型,确保数据得到安全处理。持续监控和报告:实施监控以确保正确遵循报废流程。访问控制映射:限制对报废工具和数据的访问。
103、基础框架:遵循 NIST AI RMF 和其他相关指南的报废实践。三、三、漏洞管理漏洞管理 人工智能漏洞管理是保护人工智能和机器学习系统的关键组成部分,确保它们保持安全、功能和合规性。本节讨论此类别中的关键项目。3.1AI/ML 资产盘点资产盘点 AI/ML 资产清单系统的记录和更新 AI/ML 环境中的所有资产。这不仅包括模型和数据集,还包括 API、算法、库以及在创建、培训和部署软件供应链的 AI/ML 组件时使用的任何支持软件或工具。该清单清晰地展示了正在使用的资源,这对于识58 别潜在漏洞和有效管理风险至关重要。根据机器学习系统的不同,使用的资产清单可以是模型卡、数据卡和模型注册表的格
104、式。了解存在哪些资产以及它们是如何相互关联的,对于识别潜在的漏洞至关重要。评估标准:AI/ML 资产清单的有效性是通过其全面性和更新的规律性来衡量的。全面的清单涵盖了 AI/ML 环境的各个方面,没有遗漏任何组件。更新的频率同样重要,确保清单反映了 AI/ML 生态系统的当前状态,包括开发的任何新模型、获取的数据集或软件环境的变化。RACI:负责人:IT 运营团队负责库存的日常管理和更新。批准人:首席信息官或首席技术官监督流程,确保库存得到准确维护,并在漏洞管理中得到有效使用。咨询人:AI/ML 开发团队提供必要的见解和信息,以保持库存的最新性和相关性。知晓人:高级管理层了解 AI/ML 资产
105、的状态和健康状况,从而能够在更高级别做出明智的决策。高级别实施战略:应制定定期审查时间表更新 AI/ML 资产清单。这可以通过跟踪 AI/ML 环境变化并提醒负责团队更新库存的自动化工具来实现。该过程还应包括定期审计,以确保准确性和完整性。持续监控和报告:实施实时监控系统有助于快速识别 AI/ML 资产的变化。这可以包括新模型部署、现有模型更新、数据集更改或软件环境更改。持续监测有助于维护最新的库存,这对有效的漏洞管理至关重要。访问控制映射:限制对 AI/ML 资产清单的访问对于维护其完整性和保密性至关重要。访问权限应仅限于授权人员,根据他们与库存交互的需要,不同角色有不同级别的访问权限。59
106、 基础框架:遵守 NIST AI RMF(风险管理框架)等框架,确保 AI/ML 资产清单的管理符合行业最佳实践和监管要求。这些框架提供了有效编目和管理 AI/ML 资产的指导方针,有助于制定强有力的漏洞管理策略。3.2 持续漏洞扫描持续漏洞扫描 持续漏洞扫描是指对所有 AI/ML 资产进行持续的检查,以识别安全漏洞。这包括扫描模型、数据集、相关基础设施(过时的库或不安全的 API)以及 AI/ML 环境中的任何其他组件。目标是检测可能被利用的漏洞,从而未雨绸缪,解决潜在的安全问题。评估标准:此扫描过程的有效性通过两个主要指标来衡量:扫描这些AI/ML 资产的百分比和频率。最佳的漏洞扫描程序可
107、确保没有任何组件未经检查,并定期进行扫描,以捕捉由于环境更新或变化而可能出现的新漏洞。RACI:负责人:安全运营团队执行扫描过程,利用工具和技术进行彻底评估。批准人:首席信息安全官(CISO)监督整个过程,确保有效进行扫描并及时解决漏洞。咨询人:AI/ML 团队深入了解 AI/ML 资产的具体要求和配置,帮助进行更有针对性的扫描。知晓人:IT 管理部门会更新扫描结果以及影响更广泛 IT 基础设施的任何关键漏洞。60 高级实施策略:实施自动化扫描工具可执行高效和有效的漏洞扫描。这些工具应配置为定期扫描所有 AI/ML 资产,并在新威胁出现时进行更新。安排定期评估可确保 AI/ML 环境随着时间的
108、推移保持安全。持续监测和报告:对于识别的新漏洞建立警报系统。该系统应将检测到的弱点通知相关团队,以便快速响应和补救。访问控制映射:访问漏洞扫描工具和结果应严格控制。只有授权人员才能进行扫描并访问详细结果,确保扫描过程中暴露的敏感信息安全。基础框架:遵守既定的安全标准,如 NIST 800-53 确保漏洞扫描过程符合行业最佳实践。这些标准提供了有效识别和解决漏洞的指导方针,增强了AI/ML 系统的整体安全态势。3.3 风险的优先级风险的优先级 风险的优先级是根据系统潜在影响和被利用的可能性,对 AI/ML 资产中发现的漏洞进行评估和排名。这一过程有助于组织将资源和精力集中在首先缓解最关键的漏洞上
109、,从而有效地降低其 AI/ML 系统的整体风险。评估标准:这种方法的有效性是通过已成功解决的高风险漏洞与已识别漏洞总数的比例来衡量的。高百分比表明对最严重的风险进行了有效的优先级排序和补救。RACI:负责人:风险管理团队的任务是根据风险水平评估漏洞并确定其优先级。批准人:首席信息安全官(CISO)监督该流程,确保最关键的漏洞得到及时识别和解决。咨询人:合规团队提供意见,特别是关于漏洞的监管和合规方面。61 知晓人:AI/ML 开发团队了解影响其资产的漏洞的优先级和状态。高级别实施战略:制定一个全面的风险评估框架至关重要。该框架应包括评估漏洞严重性的标准,例如对机密性、完整性、可用性和利用可能性
110、的潜在影响。持续监测和报告:实施一个持续监测漏洞及其风险水平的系统至关重要。定期更新和报告漏洞的风险状态,确保所有利益相关者了解当前的威胁形势和补救工作的进展。访问控制映射:应严格控制对风险评估工具和漏洞数据的访问。只有授权人员才能评估、分类和优先考虑漏洞,以保持流程的完整性。基础框架:遵守 NIST 人工智能风险管理框架(RMF)等指导方针,可确保该过程与行业最佳实践保持一致,并为管理 AI/ML 系统风险提供结构化方法。基于风险的优先级是人工智能漏洞管理的重要组成部分,使组织能够有效地分配资源,以减轻其 AI/ML 系统中最紧迫的安全风险。3.4 补救跟踪补救跟踪 补救跟踪过程涉及对流程的
111、持续监控和管理,以解决和纠正 AI/ML 系统中已识别的漏洞。它包括跟踪为减轻漏洞而采取的行动,确保及时解决漏洞。评估标准:补救跟踪的有效性基于两个主要指标进行评估:补救漏洞所需的时间和已解决问题的百分比。修复时间越短,已解决漏洞的百分比越高,表明修复工作高效且成功。必须根据上述基于风险的漏洞优先级,根据组织漏洞修复 SLA 跟踪修复漏洞所需的时间。RACI:62 负责人:IT 运营团队执行修复漏洞所需的操作。批准人:首席信息安全官(CISO)对补救过程的有效性负全面责任,确保漏洞得到及时解决。咨询人:AI/ML 开发团队提供意见和帮助,以了解补救与 AI/ML 资产相关的漏洞的具体要求。知晓
112、人:行政领导层随时了解漏洞修复工作的状态及其对组织的潜在影响。高层实施策略:实施稳健的跟踪系统进行高效的补救跟踪。这些系统应记录已识别漏洞的详细信息、采取的补救措施、责任方和解决时间表。持续监测和报告:维护补救活动的详细记录,包括进度更新和完成状态。持续监控确保漏洞得到积极跟踪和管理,直到成功解决。访问控制映射:应访问与补救活动相关的文档安全控制,防止未经授权的访问或篡改。这保护了补救过程的完整性。基础框架:参考 NIST 等既定的网络安全标准 800-53 确保补救跟踪过程与行业最佳实践保持一致,并提供了一种结构化的方法来管理和记录漏洞补救。3.5 异常处理异常处理 异常处理是有效管理与既定
113、安全协议和程序发生偏差或异常的情况的过程。这些例外情况可能是由于独特的情况、操作需求、特殊系统或其他需要偏离标准安全实践的因素造成的。评估标准:根据处理的异常数量和解决方案的整体有效性来评估异常处理的有效性。管理良好的异常处理过程应尽量减少异常的数量,并确保在发生异常时,使用异常处理来适当解决安全问题。63 RACI:负责人:安全团队管理并解决出现的安全异常。批准人:首席信息安全官(CISO)对异常处理流程的有效性负全面责任,确保异常管理符合安全政策和法规。咨询人:法律和合规团队提供指导和建议,以确保在法律和监管要求的范围内管理例外情况。知晓人:管理层了解异常情况及其解决方案,确保透明度并与整
114、体运营保持一致。高级别实施战略:为处理安全异常至关重要。这些协议应定义识别、评估和解决异常的过程,同时确保安全仍然是首要任务。持续监控和报告:异常处理应记录在案,包括异常情况、为解决异常而采取的行动以及采取的任何补救措施。持续的监控和报告有助于确保随着时间的推移有效地管理异常。访问控制映射:访问异常处理过程和相关文档应仅限于授权人员。这确保了异常的处理保持安全,并符合既定的协议。基础框架:确保与云安全联盟(CSA)、云控制矩阵(CCM)等行业标准保持一致,有助于建立处理异常的最佳实践,并确保按照公认的指导方针进行管理。异常处理是人工智能漏洞管理的关键组成部分,使组织能够有效地应对独特的情况,同
115、时保持整体安全和合规标准。64 3.6 报告指标报告指标 报告指标是指用于评估和量化人工智能漏洞管理工作有效性的具体衡量标准和关键绩效指标(KPI)。这些指标为 AI/ML 系统内的安全状态提供了有价值的参考。评估标准:报告的准确性和及时性对于评估报告指标的有效性至关重要,最新的报告确保决策者可以获得可靠的信息,以便做出明智的安全决策。RACI:负责人:报告团队负责收集、分析和呈现漏洞管理指标。批准人:首席信息安全官(CISO)负责报告流程的整体有效性,并确保指标与安全目标保持一致。咨询人:AI/ML 和 IT 部门提供输入和背景情况,以确保指标准确反映AI/ML 环境的安全状况。知晓人:执行
116、管理层了解报告指标得出的结果和见解,从而做出战略决策。高级别实施战略:制定标准化的报告程序至关重要。这些程序应定义如何收集、分析和呈现指标,以确保一致性和准确性。持续监测和报告:定期更新和分发报告这对于让所有利益相关者了解人工智能漏洞管理的现状至关重要。这种持续的报告确保了安全问题得到及时识别和解决。访问控制映射:应控制对报告工具和数据的访问,以防止未经授权的访问或篡改指标。限制访问可以保障报告过程的完整性。65 基础框架:遵循公认框架的最佳实践,如美国国家标准与技术研究院(NIST)、安全软件开发框架(SSDF)和云安全联盟(CSA)云控制矩阵(CCM),是有助于建立有效开发和管理报告指标的
117、行业标准指南。66 结论结论 本白皮书探讨了组织在开发和部署 AI 和机器学习系统时必须承担的核心安全责任。阐述了一个全面的框架,通过关注数据安全、模型安全和漏洞管理,确保人工智能系统在其整个生命周期中的安全性、隐私性和完整性。在数据安全和隐私领域,本白皮书强调了数据真实性、匿名化、假名化、数据最小化、访问控制以及安全存储和传输的重要性。这些措施对于保护敏感信息和遵守数据保护法规至关重要。关于模型安全,本白皮书讨论了访问控制、安全运行环境、漏洞和补丁管理、MLOps 流水线安全、AI 模型治理和安全模型部署的意义。通过实施强有力的安全控制和治理流程,组织可以降低与 AI 模型相关的风险,并确保
118、其可靠和值得信赖的运行。漏洞管理是人工智能安全的另一个关键方面。本白皮书强调了维护 AI/ML 资产清单、进行持续漏洞扫描、确定风险优先级、补救跟踪工作、处理异常和建立报告指标的必要性。这些做法能够使组织主动识别和解决漏洞,最大限度地减少安全漏洞问题的可能性,并确保人工智能系统的持续安全。在整个白皮书中,通过使用可量化的评估标准、角色定义的 RACI 模型、高级实施策略、持续监控和报告机制、访问控制映射以及根据行业最佳实践和标准(如NIST AI RMF、NIST SSDF、NIST 800-53、CSA CCM 等)制定的基础框架,明确了各项相关责任和标准。通过采用本白皮书中概述的建议和最佳
119、实践,组织可以为安全和负责任的人工智能开发和部署奠定坚实的基础。然而,我们必须认识到,人工智能安全是一个持续的过程,随着技术和威胁的发展,需要不断的监控、适应和改进。随着组织为应对人工智能采用的复杂性措施,在包括管理层、技术团队、治理机构和最终用户在内的所有利益相关者之间塑造安全协作的文化至关重要。通过共67 同努力并遵守相关原则和实践,组织可以释放人工智能的变革潜力,同时确保所有利益相关者的安全、隐私和信任。68 缩略语缩略语 AI 人工智能 AI RMF 人工智能风险管理框架 AIMS AI管理系统 AIOps 用于IT运营的人工智能 API 应用程序编程接口 AWS 亚马逊网络服务 CA
120、IO 首席人工智能官 CCM 云控制矩阵 CDO 首席数据官 CEO 首席执行官 CFO 首席财务官 CI/CD 持续集成/持续部署 CIO 首席信息官 CIS 互联网安全中心 CISO 首席信息安全官 CNAPP 云原生应用防护平台 COO 首席运营官 CPO 首席隐私官 CSA 云安全联盟 CTO 首席技术官 CVE 常见漏洞和暴露 CVSS 常见漏洞评分系统 DASD 动态应用程序安全测试 DataOps 数据操作数据操作 DDos 分布式拒绝服务 69 DevSecOps 开发安全与运营 DISA 国防信息系统局 ENISA 欧盟网络安全局 GDPR 通用数据保护条例 HSM 硬件安全
121、模块 IaaS 基础设施即服务 IAM 身份和访问管理 IDPS 检测和预防系统 IDS 侵入检测系统 IEC 国际电工委员会 IPS 入侵防御系统 ISM 信息安全经理 ISMS 信息安全管理体系 ISO 国际标准化组织ISS 信息系统安全 ISSO 信息系统安全官 K8s Kubernetes开源容器编排系统 KPI 关键绩效指标 LLM 大型语言模型 MFA 多因素身份验证 ATT&CK 对抗策略、技术和常识 ML 机器学习 MLOps 机器学习操作 NIST 国家标准与技术研究所 OS 操作系统 OWASP 开放网站应用程序安全项目 PaaS 平台即服务 PIMP 隐私信息管理系统 70 PoLP 最小特权原则 QA 质量保证 RACI 执行、负责、咨询、告知 RBAC 基于角色的的访问控制 SaaS 软件即服务 SASTS 静态应用程序安全测试 SDLC 软件开发生命周期 SLA 服务水平协议 SSDF 安全软件开发框架 STIGs 安全技术实施指南 TEET 可信执行环境 TLST 传输层安全 VPN 虚拟专用网络 WAF Web应用程序防火墙