定制报告-个性化定制-按需专项定制研究报告
行业报告、薪酬报告
联系:400-6363-638

《中国信通院:人工智能风险治理报告(2024年)-构建面向产业的人工智能安全治理实践方案(37页).pdf》由会员分享,可在线阅读,更多相关《中国信通院:人工智能风险治理报告(2024年)-构建面向产业的人工智能安全治理实践方案(37页).pdf(37页珍藏版)》请在薪酬报告网上搜索。
1、中国信息通信研究院人工智能研究所 2024年12月 人工智能风险治理报告人工智能风险治理报告 构建面向产业的人工智能安全治理实践方案构建面向产业的人工智能安全治理实践方案(20242024 年)年)版权声明版权声明 本报告版权属于中国信息通信研究院,并受法律保护。本报告版权属于中国信息通信研究院,并受法律保护。转载、摘编或利用其它方式使用本报告文字或者观点的,应转载、摘编或利用其它方式使用本报告文字或者观点的,应注明注明“来源:中国信息通信研究院来源:中国信息通信研究院”。违反上述声明者,本院。违反上述声明者,本院将追究其相关法律责任。将追究其相关法律责任。前前 言言 人工智能技术以其前所未有
2、的发展态势引领新一轮科技革命和产业变革,深度驱动经济社会发展。技术跃迁释放价值红利,与此同时带来风险挑战。2023 年 10 月,习近平主席提出全球人工智能治理倡议,其中着重指出,做好风险防范,不断提升人工智能技术的安全性、可靠性、可控性、公平性。人工智能风险治理已经成为把握未来人工智能发展的核心要素,也是全人类需要共同应对的时代课题。当前,全球各界积极探索人工智能风险治理之道。本报告广泛汲取国际行动、各经济体努力、产业实践等各方经验,勾勒新时代下人工智能风险认知的演进路径,提炼出人工智能风险认知正向全球性融合、前瞻性考量、系统性分析、交叉性联动不断深化。通过深入分析全球人工智能风险治理多元共
3、治的实践经验,我们深刻认识到,将人工智能风险治理的方案落实到技术革新、产品开发和应用部署中去,是回应社会关切、解决突出矛盾、防范安全风险的必然选择,也是关系到人工智能长远发展的重要议题。本报告结合国际经验,立足我国产业实践,提出“系统治理-风险识别-风险评估-风险应对”的人工智能风险治理实践框架,实现穿透式风险管控与全链条流程管理的深度融合,为人工智能产业主体对于技术发展与安全保障提供解决方案。鉴于人工智能技术应用日新月异,本报告对人工智能风险治理的认识仍有未尽之处,恳请大家批评指正。目目 录录 一、概述.1(一)人工智能风险挑战引发全球关注.1(二)人工智能风险治理模式亟需创新.3(三)推动
4、面向产业界的人工智能风险治理落地框架迫在眉睫.4 二、人工智能风险认知渐进深化.6(一)人工智能内生安全与衍生安全复杂交织.6(二)人工智能风险认知迈向多维度深化融合.9 三、人工智能风险治理全球实践.12(一)国际层面:加速推进风险治理行动及合作.12(二)主要经济体:迭代完善风险划分与管控举措.14(三)产业组织:协同推进治理框架和安全工具.17(四)企业主体:深化技管融合的风险应对方案.18 四、面向产业的人工智能风险治理实践方案.19(一)打造全链条人工智能风险治理框架.19(二)提升人工智能风险系统治理能力.21(三)设立人工智能风险精准识别机制.23(四)健全人工智能风险科学评估体
5、系.25(五)完善人工智能风险敏捷应对方案.27 五、展望建议.29(一)促进全球合作,共筑人工智能治理新格局.29(二)优化治理体系,夯实人工智能安全发展基础.30(三)发挥桥梁作用,推进行业治理标准化与动态化.30(四)强化内外协同,助力技术创新与责任共担.31 图图 目目 录录 图 1 人工智能风险治理框架.5 图 2 人工智能内生安全和衍生安全.7 图 3 人工智能风险认知趋势.9 图 4 面向产业的人工智能风险治理实践方案.20 人工智能风险治理报告(2024 年)1 一、一、概述(一)人工智能风险(一)人工智能风险挑战挑战引发全球关注引发全球关注 习近平总书记指出,人工智能是引领这
6、一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的“头雁”效应。当前,人工智能牵引工业、医疗、教育、交通、金融、文化等各领域提质增效,成为社会经济高质量发展的重要支撑和前进动能。然而,人工智能技术在重塑全球经济与社会格局的同时,也带来了多元风险挑战。根据美国斯坦福大学2024 年人工智能指数报告统计,2023 年全球共发生 123 起与人工智能滥用相关的重大事件,比 2013 年增长了近 20倍,并呈现持续增长态势1。与此同时,人工智能风险的波及范围和影响程度也显著加大。国际货币基金组织生成式人工智能:人工智能与未来就业 报告指出,全球 40%的工作将受到人工智能的影响2;奇安信2024
7、 人工智能安全报告显示,2023 年基于人工智能的深度伪造欺诈暴增 3000%,钓鱼邮件增长 1000%3。人工智能技术释放红利与应用风险显露并存,全球领域人工智能治理进程持续加速。国际组织和主要经济体在人工智能治理方面主动作为,联合国通过联合国大会将共识理念凝聚为决议文件,并通过组建人工智能高级别咨询机构以讨论形成全球合作的具体行动方案;经济合作与发展组织(OECD)研究、评查全球国家如何落实人工智能原则;金砖国家正推动成立人工智能研究小组以促进合作和负责任的 1 https:/aiindex.stanford.edu/report/2 https:/www.elibrary.imf.org
8、/view/journals/006/2024/001/006.2024.issue-001-en.xml 3 https:/ 人工智能风险治理报告(2024 年)2 治理;人工智能安全峰会为人工智能安全治理提供全球对话平台。此外,政府驱动的人工智能风险治理逐渐完备。根据加拿大咨询公司FairlyAI 追踪结果显示,截至 2024 年 12 月,全球人工智能相关政策法规已达 317 份4;产业驱动的人工智能标准化行动更加密集,全球陆续出台 355 项人工智能标准5,目前尚有更多标准处于规划和制定过程之中。我国在人工智能治理中侧重风险研判与防范,并积极为国际社会贡献“中国方案”。总体上,中国为全
9、球人工智能治理积极贡献力量。从习近平总书记在“一带一路”高峰论坛提出全球人工智能治理倡议,到中国在联合国大会上主提的 人工智能能力建设普惠计划,包含主权平等、发展导向、以人为本、普惠包容、协同合作等深刻内涵的人工智能治理原则不断传播,为国际社会提供了统一、先进、普适的合作框架与实践指引。举措上,中国加快完善人工智能治理体系,2024 年 7 月,党的二十届三中全会中共中央关于进一步全面深化改革 推进中国式现代化的决定中提出建立“人工智能安全监管制度”,体现出我国统筹发展与安全,体系化应对人工智能安全风险的谋划。我国已经通过生成式人工智能服务管理暂行办法国家人工智能产业综合标准化体系建设指南(2
10、024 版)等部门规章与标准规划,保障人工智能技术的健康有序发展。4 https:/www.fairly.ai/blog/map-of-global-ai-regulations 5 秦铭浩 徐慧芳.全球人工智能标准化进展及我国发展建议J.世界科技研究与发展,2024,46(4):524-535.人工智能风险治理报告(2024 年)3(二)(二)人工智能风险治理模式亟需创新人工智能风险治理模式亟需创新 随着人工智能技术的飞速进步,技术风险不确定性增大。自 2022年 ChatGPT 发布以来,大模型能力愈发突出,人工智能领域迎来了前所未有的投资热潮。然而,随着技术应用复杂度的增加,风险持续显露
11、,亟需采取有效措施应对日益迫切的风险治理问题。在技术快速演变、产品跨境应用、链条主体复杂的背景下,产业界在人工智能风险治理中需要发挥更重要的作用。一是技术快速演变,产业界提供灵活有效的自律工具能够及时回应现实问题。法律法规的制定因其严谨性,通常需要较长的流程与时间,往往滞后于技术创新。人工智能技术专业性强、演变速度快、原理愈发复杂,而社会对治理措施能够及时回应的需求也日益增长,这进一步加剧了法律稳定性与监管灵活性之间的紧张关系。例如前两年语言大模型、多模态模型取得显著进展,而如今智能体和具身智能等领域的创新突破层出不穷,安全治理的步伐愈发难以跟上技术发展的速度。相较于传统的政府监管,产业界行业
12、规范、标准指南、技术工具更有能力以应对技术发展迅速、风险不断变化的局面,与政府监管形成良性互动。二是产品跨境应用,产业界在国际治理合作方面需要承担更重要角色。在互联网和跨国企业的推动下,人工智能技术在全球范围内广泛应用,许多风险的跨境性质日益凸显。传统监管模式依赖国家主权进行,易受国界限制,无法有效应对风险的跨境挑战。例如,开源人工智能模型的广泛应用和全球流通性,使得任何安全漏洞、偏见或不人工智能风险治理报告(2024 年)4 当使用都可能迅速传播,影响多个国家和地区。对于各国政府而言,尽管制定针对开源模型的监管并不困难,但也正是鉴于其全球流通特性,确保监管措施的有效实施却面临巨大挑战。在此背
13、景下,产业组织通过促进跨国合作,例如与其他国家的相关组织开展联合测试、提升工具的互操作性、参与“一轨半、二轨对话”等,推动全球范围内的有效治理。三是链条主体复杂,产业界充分协调人工智能治理多利益相关方。人工智能训练数据、算法模型、系统应用及基础设施等环节涉及多个主体多个维度复杂互动,产业链的延展使得治理结构变得更加复杂,进一步加剧了传统监管模式的挑战。2023年布鲁金斯学会报告指出,未参加生成式人工智能原始模型开发的“下游开发者”可能会将原始模型调整后再整合到其他软件系统,由于双方均无法全面了解整个系统,或将增加这些软件错误和失控风险6。人工智能技术应用涉及数据、模型、软硬件基础设施、应用服务
14、等产业链上下游多利益攸关方,有效的治理措施需要充分协调各方,促进不同主体之间的信息流动与共享,整合各方资源推动解决方案的落地和实施,在共识框架下形成灵活应对地响应模式。(三)推动面向产业界的人工智能风险治理落地框架(三)推动面向产业界的人工智能风险治理落地框架迫在眉睫迫在眉睫 本报告广泛汲取国际行动、各经济体努力、产业实践等各方经验,形成人工智能风险治理框架(见图 1)。人工智能的迅速发展与广泛 6 https:/www.brookings.edu/articles/early-thoughts-on-regulating-generative-ai-like-chatgpt/人工智能风险治理
15、报告(2024 年)5 应用所带来的风险,呈现出日益复杂且多维交织的特点。这些风险不仅涉及技术层面的固有问题,还涵盖了应用层面的衍生性挑战。在多元共治的推进下,尽管各国政府在国际和国内层面推出的治理框架或法律规范已取得一定进展,但面对人工智能技术飞速演进和前瞻性风险,仍然存在诸多治理空白与亟待解决的问题。企业作为人工智能风险治理的核心主体,处于治理的前沿,掌握着实施有效治理所需的关键资源,迫切需要一套切实可行的治理方案,以识别、评估并有效应对日益复杂的风险。来源:中国信息通信研究院 图 1 人工智能风险治理框架 在此背景下,推动面向产业界的人工智能风险治理框架落地已成为迫在眉睫的任务。本报告以
16、安全性、透明性、公平性和可问责性等核心原则为指导,提出了一个集穿透式风险管控与全链条流程管理的落地框架,旨在提升企业人工智能风险治理能力,涵盖从风险识别、评估到有效应对的全过程。框架强调通过制度完善、文化建设和外部协作来提升系统治理能力,同时聚焦技术、应用和管理三个层面的风人工智能风险治理报告(2024 年)6 险识别、评估与应对,构建全链条的治理体系。在风险识别环节,框架从自身技术层和衍生应用层两维度着手,通过动态监测和多方协作,及时发现数据质量、算法模型、软件安全以及衍生风险等问题。在风险评估环节,通过对风险进行评估量化与优先级划分,帮助合理配置资源。并根据技术迭代和社会变化,动态调整评估
17、结果。在风险应对环节,为不同优先级的风险制定定制化方案,并动态优化治理措施。此外,框架明确技术和应用提供方在研发、部署和应用各环节的责任,强调多利益攸关方的合作与信息共享,以提升行业整体风险治理能力。二、人工智能风险认知渐进深化(一)人工智能(一)人工智能内生安全与衍生安全复杂交织内生安全与衍生安全复杂交织 人工智能在引领科技创新、赋能千行百业的同时,也伴随着多层次安全问题。一方面,人工智能系统自身存在鲁棒性不足以及不可解释性等疑难;另一方面,在人机交互过程中,人工智能内生风险进一步延伸,可能对个人组织、国家社会、全人类带来诸如隐私泄露、就业替代、不可持续发展等衍生安全问题(见图 2)。安全问
18、题的客观存在成为人工智能风险的诱因。系统运行中可能存在的失控或错误决策的内生安全问题,引发操作性风险。隐私侵害和歧视偏见等衍生安全问题,则随着人工智能应用的扩展,可能引发危害性更大的风险挑战。人工智能风险治理报告(2024 年)7 来源:中国信息通信研究院 图 2 人工智能内生安全和衍生安全 人工智能内生安全主要集中在技术层面,包括数据、算法模型、软件和基础设施等。数据方面,一是有毒的训练数据和不规范的标注可能导致有害输出。训练数据来自现实世界,难免包含有害内容或被“投毒”,数据标注不规范也会降低数据质量,诱发输出错误、生成违法内容以及引发偏见等风险。二是未经清洗处理的训练数据可能导致敏感信息
19、泄露。训练数据可能包含未授权的敏感信息,如果数据未经适当保护、过滤或匿名化处理,可能导致敏感信息泄露。2024 年 11月,X 公司在其隐私政策中声明用户信息会向第三方合作者共享,可能会被第三方用于训练包括生成式人工智能在内的人工智能模型7。算法模型方面,一是算法存在不可解释性问题。深度学习算法通常包 7 https:/ 人工智能风险治理报告(2024 年)8 含数以万亿计的参数,使得即便是技术专家也难以清楚解释其推导过程。当人工智能造成损害时,不可解释性使得责任难以明确,影响可问责性的有效实施。二是模型存在被攻击风险。通过提示注入、输入扰动等对抗性攻击方法,模型可能被诱导生成错误或有害结果。
20、同时,模型核心结构、权重参数和偏差等关键信息可能被窃取、复制或篡改,导致知识产权和商业秘密泄露,破坏市场公平竞争秩序,损害科研动力。此外,与模型训练紧密相关的算力、网络、软硬件方面存在被后门攻击等风险。2024 年 10 月,包括 ChuanhuChatGPT、Lunary、LocalAI和 DJL 在内的多个开源模型被曝存在安全漏洞,其中一些可能导致远程代码执行或信息盗窃8。人工智能衍生安全重点体现在应用层面,涉及个人隐私、组织财产、社会公平和国家安全等领域,并可能对全人类产生深远影响。个人组织层面,一是不当使用可能加剧信息泄露风险。随着人工智能的广泛应用,个人和组织需要提供大量数据,不当输
21、入可能危及数据安全,导致个人隐私和商业秘密泄露。二是可能引发法律风险,如侵犯知识产权,或被用于犯罪、制造虚假信息等,同时也存在诱发伦理风险的可能性。2024 年 2 月,香港发生一起利用人工智能深度伪造技术的诈骗案,涉案金额达 2 亿港元9。国家社会层面,一是可能对社会舆论和政治安全带来挑战。通过生成虚假信息和有害言论,人工智能可能扰乱社交媒体秩序、破坏公众信任、威胁社会秩序,甚至干涉他国内政与社会稳定。二是可能带来就业结构深度调整。人工智能的 8 https:/ https:/ 人工智能风险治理报告(2024 年)9 广泛应用可能引发部分就业岗位的消失和新兴就业形态的出现,带来劳动力结构调整
22、。2024 年 1 月,国际货币基金组织(IMF)发布报告表明,在新兴市场和低收入国家,受人工智能影响的就业岗位比例预计分别为 40%和 26%10。全人类层面,一是引发能源担忧,人工智能的性能突破需要强大的算力支持,但模型训练过程中却导致了巨大的资源浪费和碳排放水平的上升。二是核武器、生化武器等两用物项的能力可能被滥用,威胁全人类安全。2024 年 9 月,OpenAI 承认,其最新模型 o1“显著”增加了人工智能的能力滥用风险,在涉及化学、生物、放射性和核武器等问题时存在最高等级风险11。(二)人工智能风险认知(二)人工智能风险认知迈向多维度深化融合迈向多维度深化融合 人工智能风险的认知向
23、全球性融合、前瞻性考量、系统性分析、交叉性联动不断深化。这一转变彰显了人类在全面理解和应对人工智能风险的不懈追求,也反映了人工智能风险的最新动向(见图 3)。来源:中国信息通信研究院 图 3 人工智能风险认知趋势 10 http:/ 11 https:/ 人工智能风险治理报告(2024 年)10 总体上,社会各界愈发关注人工智能风险全球性。多项国际人工智能治理方案愈发深刻认识到,人工智能技术的应用与影响并非局限于某一地区或国家,而是深刻影响全球社会、经济和政治秩序。具体而言,人工智能的开发、部署和使用具有全球化特征。大型跨国科技公司主导的人工智能技术能够快速传播到世界各地,进而引发风险跨境扩散
24、。全球人工智能治理倡议提出人工智能技术带来难以预知的各种风险和复杂挑战,明确指出“人工智能治理攸关全人类命运,是世界各国面临的共同课题”12。布莱切利宣言关注识别全球共同关注的人工智能安全风险,提出“在更广泛的全球背景下审视人工智能技术对社会、经济及人类生活的潜在影响”13。首尔宣言提出人工智能可能被跨国犯罪集团利用,用于网络诈骗、操控选举或传播虚假信息,这些问题只能通过全球协调加以解决14。国际倡议和报告日益关注人工智能发展带来的前瞻性风险。人工智能的技术发展迅速,潜在风险难以准确预测,甚至是其技术能力超出当前认知范围。一是人工智能治理框架日益强调对高优先级风险的评估和理解。布莱切利宣言指出
25、,前沿模型潜在的滥用或意外失控问题可能带来严重甚至灾难性的风险15。英国人工智能安全研究所则将前沿模型的自主性和滥用作为人工智能的核心风险类别。二是人工智能治理方案逐渐将未来风险研判纳入认知议程。联合国治理人 12 https:/ 13 https:/www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023 14
26、https:/www.gov.uk/government/publications/seoul-declaration-for-safe-innovative-and-inclusive-ai-ai-seoul-summit-2024 15 https:/www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023 人
27、工智能风险治理报告(2024 年)11 工智能,助力造福人类最终报告预判人工智能风险演变方向,指出约七成受访者担忧未来 18 个月内人工智能损害范围和严重程度将大幅增加。OECD评估未来人工智能的潜在风险、效益和政策报告确定了 38 项潜在的未来人工智能风险,并分析确定了 10 项需要加强政策关注的优先人工智能风险,并对未来治理机制和机构无法跟上人工智能快速发展表达担忧16。各国机构日益加强对人工智能风险认识的系统化。各国组织机构日益认识到人工智能风险涉及技术、社会、伦理等多个层面,需综合考量,强调风险的多维特性。美国国家标准与技术研究院(NIST)人工智能风险管理框架(1.0)建立全周期、多
28、层次风险管理方案,强调风险来源覆盖设计、开发、部署、运行和退役全部五个阶段,并从个体模型风险到生态系统风险,涵盖了人工智能对单一系统和整个技术生态的影响17。德国联邦信息安全办公室(BSI)生成式人工智能模型指南全面梳理生成式人工智能各项风险,通过对不同风险场景的分析和分层管理,全面响应了偏见、滥用风险及外部攻击等不同层面的安全挑战。中国信息通信研究院可信人工智能白皮书系统性分析了人工智能的多重风险,指出随着技术发展,算法安全、不透明、数据歧视、责任界定困难和隐私泄露等问题日益复杂化18。专家学者日益强调对人工智能风险认知的联动性。越来越多的顶尖人工智能专家在公开场合强调,不同类型的人工智能风
29、险往往相互 16 https:/www.oecd.org/content/dam/oecd/en/publications/reports/2024/11/assessing-potential-future-artificial-intelligence-risks-benefits-and-policy-imperatives_8a491447/3f4e3dfb-en.pdf 17 https:/nvlpubs.nist.gov/nistpubs/ai/NIST.AI.600-1.pdf 18 http:/ 人工智能风险治理报告(2024 年)12 交织,不能孤立地应对与管理,因此亟需加强
30、风险认知的联动性与整体性。由 75 位顶尖人工智能专家参与编写的先进人工智能安全国际科学报告 中期报告将交叉风险因素视为通用人工智能的风险根源,认为这些因素增加了多种风险的可能性和严重性。从技术角度看,系统可靠性难以保障,内部机制缺乏透明性,且人工智能可能在减少监督下拥有更大自由;从社会角度看,技术发展超前于监管,人工智能系统研发方在竞争压力下可能忽视风险管理,推出有害产品19。由 3位图灵奖得主和 25 位权威专家在科学(Science)期刊联合发表的人工智能飞速进步背景下的极端风险管理文章指出,人工智能带来的风险不仅相互交织,还可能在多个层面产生连锁反应。先进的人工智能不仅可能加剧社会不公
31、、破坏社会稳定,还可能推动自动化战争和犯罪活动。随着公司开发先进人工智能,现有风险可能被放大,甚至产生新的风险20。三、人工智能风险治理全球实践(一)(一)国际层面:加速推进风险治理行动及合作国际层面:加速推进风险治理行动及合作 国际组织推进从风险认识到风险治理进程。联合国组建“人工智能高级别咨询机构”,发布治理人工智能,助力造福人类中期及最终报告等全球人工智能治理框架。联合国将成立一个独立的国际人工智能科学小组,联合其他国际组织研究人工智能风险等议题。此外,联合国大会先后商讨通过两项决议,提出采取国际互操作性强的措施,19https:/assets.publishing.service.go
32、v.uk/media/666ac68ca8b7ec4fae43d0f9/international_scientific_report_on_the_safety_of_advanced_ai_executive_summary_chinese.pdf 20 https:/ 年)13 涵盖识别、分类、评估、测试、预防和缓解措施。金砖国家开展多形式人工智能治理合作,启动人工智能研究组、组织金砖国家人工智能技术与治理卓越人才研修班、举办技能发展与技术创新大赛,形成了多样化的合作方式。经合组织推进人工智能规则适应落地。2024 年 5月更新人工智能原则,指导政府更新人工智能风险认知并实际吸纳人类监督
33、、多方合作和互操作治理等相关治理原则。世界互联网大会构建常态化治理架构。世界互联网大会在组建人工智能工作组、发布发展负责任的生成式人工智能研究报告及共识文件的基础上,于 2024 年 11 月的乌镇峰会上,正式成立人工智能专业委员会,常态化推进人工智能标准化、产业发展和安全与治理工作。国际峰会推动紧密合作以强化人工智能风险治理。2023 年 11 月,英国召开首届全球人工智能安全峰会,通过布莱切利宣言,就前沿人工智能带来的风险和采取行动的必要性达成共识,并提出建立“具有国际包容性”的前沿人工智能安全科学研究网络。2024 年 5 月,韩国及英国共同主办人工智能首尔峰会,16 家顶尖人工智能科技
34、公司联合签署前沿人工智能安全承诺,承诺公开透明地报告其前沿人工智能风险管理方法,设定“风险阈值”,并在风险过大时暂停开发和部署。同时,英、美等 11 国签署首尔人工智能安全科学国际合作意向声明,依托各国人工智能安全研究所,强化前沿人工智能风险治理研究合作,提升治理体系的互操作性。国际标准化组织(ISO)积极推动风险治理的技术标准和管理规范建设。2023 年 12 月,ISO 发布信息技术人工智能管理体系人工智能风险治理报告(2024 年)14(ISO/IEC 42001),为各类组织实施人工智能风险管理等关键流程提供指引。2024 年 4 月,联合国下属标准组织世界数字技术研究院(WDTA)发
35、布生成式人工智能应用安全测试标准和大语言模型安全测试方法两项国际标准,为大模型本身的安全风险防范提供了一套全面、严谨且实操性强的结构性方案。2024 年 5 月,国际电信联盟(ITU)在“AI for Good”全球峰会期间组织了“检测深度合成和生成式人工智能:人工智能水印和多媒体真实性的标准”研讨会,讨论了安全风险、治理技术以及标准化需求等议题。同月,国际电信联盟与中国信通院、ISO、国际电工委员会(IEC)、Adobe、微软等联合启动了“人工智能水印、多媒体内容真实性和深度伪造检测标准合作计划”,旨在共同推动相关标准的制定与合作,应对人工智能生成内容带来的风险挑战,提高多媒体内容的真实性和
36、可信度。(二)(二)主要经济体:迭代完善风险划分与管控举措主要经济体:迭代完善风险划分与管控举措 欧盟采用四分法对人工智能风险进行划分,并配套制定风险管理措施。风险划分上,2024 年 8 月正式生效的欧盟人工智能法,依据人工智能风险程度,将人工智能系统划分为不可接受、高风险、有限风险、低风险四种风险等级。风险管控上,欧盟通过加强统一监管、产业标准化、签署国际公约等方式加强治理,全面应对人工智能风险。包括成立人工智能办公室,负责监管人工智能发展,同时防范风险;要求欧洲标准化委员会(CEN)和欧洲电工标准化委员会(CENELEC)起草针对高风险人工智能系统的欧洲风险管理标准;参与起草和签署全球首