定制报告-个性化定制-按需专项定制研究报告
行业报告、薪酬报告
联系:400-6363-638

《CIC工信安全:2024全球人工智能立法的主要模式、各国实践及发展趋势研究报告(42页).pdf》由会员分享,可在线阅读,更多相关《CIC工信安全:2024全球人工智能立法的主要模式、各国实践及发展趋势研究报告(42页).pdf(42页珍藏版)》请在薪酬报告网上搜索。
1、全球人工智能立法的主要模式、各国实践及发展趋势研究全球人工智能立法的主要模式、各国实践及发展趋势研究国家工业信息安全发展研究中心2024 年 12 月瞭望系列报告全球人工智能立法的主要模式、各国实践及发展趋势研究“工信安全智库”系列报告编委会主任:蒋艳周健副主任:黄鹏成员:李强冯媛殷利梅杨志锋王花蕾申畯刘丹孙倩文付伟胡思洋王慧娴闫寒马瑞敏王丁冉王蕊编写组撰稿:刘芷君审稿:李强冯媛王花蕾孙倩文全球人工智能立法的主要模式、各国实践及发展趋势研究序国家工业信息安全发展研究中心经过 60 余年的发展与积淀,在智库研究方面形成了丰硕的积累。2018 年 9 月,中心推出“工信安全智库”品牌,立足深化供给
2、侧结构性改革和加快建设创新型国家战略需求,围绕制造强国和网络强国建设任务,聚焦网络安全、数字经济、软件产业、产融合作等重点领域,开展基础性、战略性、先导性智库研究,为工业和信息化部、中央网信办、国家发展改革委等提供智力支持。“工信安全智库”自 2019 年开始陆续推出“研判”“洞察”“瞭望”“指数”“案例”“编译”等系列研究报告,围绕党和政府决策急需的相关重大课题和关键问题,开展形势研判、专题调研、国际跟踪、景气测度、案例分析、报告翻译等方面的持续研究,为主管部门预见走势、把握机遇、应对挑战、谋划战略提供参考。本次推出的瞭望报告总结了全球人工智能立法的两大逻辑导向和四大主流模式,列举了欧盟、美
3、国、新加坡、中国等主要经济体的人工智能立法实践,研判了全球人工智能立法的发展趋势,并为我国完善人工智能法律体系提出了相关建议。由于成稿仓促,加之水平有限,报告中难免有疏漏和错误之处,恳请批评指正。编写组2024 年 12 月全球人工智能立法的主要模式、各国实践及发展趋势研究摘要随着人工智能技术的不断发展和广泛应用,人工智能逐渐成为大国博弈的重要焦点,各国和地区都在积极推进人工智能立法,推动人工智能规范化应用,全球人工智能竞争逐渐从技术之争发展到规则之争、治理之争。纵观全球人工智能立法实践,可以发现不同国家和地区在人工智能立法方面体现出不同的逻辑导向和立法模式路径。欧盟以安全规制为导向,制定出台
4、了全球首部统一的人工智能综合立法,体现出强监管倾向;美国以技术发展为导向,对人工智能的监管力度相对宽松,相关规定融合在现有立法中或对重点应用场景制定专门立法;新加坡致力于占据人工智能技术创新主动权,以技术发展为导向,通过制定标准、指南等非约束性的软法指导人工智能规范发展;中国则贯彻统筹发展和安全的理念,现阶段体现出融合立法和场景立法的特征,同时持续推进人工智能综合立法进程,不断完善人工智能治理法律法规体系。随着全球人工智能立法和监管实践的持续推进,人工智能在各国的战略地位进一步加强,各国将更加关注安全和发展的平衡,柔性规则和硬性规定将同步发展,统一立法将成为国际主流趋势,人工智能国际治理规则体
5、系将持续构建。我国应秉持统筹发展和安全的原则,顺应人工智能治理的全球趋势,强化立法顶层设计,制定人工智能治理制度框架,加强国际交流对话,提出人工智能治理的中国方案。全球人工智能立法的主要模式、各国实践及发展趋势研究目录一、人工智能立法的逻辑导向和主要模式.1(一)人工智能立法的两大逻辑导向.1(二)人工智能立法的四大主流模式.3二、主要经济体人工智能立法实践.6(一)欧盟:以安全规制为导向,实行统一立法模式.6(二)美国:以技术发展为导向,实行融合立法和场景立法模式.9(三)新加坡:以技术发展为导向,实行软法先行模式.12(四)中国:统筹发展和安全,实行融合立法和场景立法模式.14三、全球人工
6、智能立法特点和趋势.20(一)立法逻辑导向日趋融合,安全和发展并重成为全球共识.20(二)软法先行成为普遍选择,软法硬法协同治理是重要方向.22(三)统一立法成为大势所趋,多元立法模式呈融合互补趋势.23(四)国际治理规则持续构建,人工智能立法全球化趋势显著.25四、启示建议.27(一)持续完善顶层设计,形成多元共治的治理格局.27(二)划定安全治理边界,确立风险分级的管理机制.29(三)强化国际交流对话,提出全球治理的中国方案.30参考文献.33全球人工智能立法的主要模式、各国实践及发展趋势研究1人工智能是引领未来的战略性技术,是新一轮科技革命和产业变革的重要驱动力量,是必须抢占的科技制高点
7、。党的二十届三中全会通过的中共中央关于进一步全面深化改革 推进中国式现代化的决定提出“建立人工智能安全监管制度”,对推动人工智能安全发展义重大。深入贯彻落实党的二十届三中全会精神,必须坚持全面依法治国,加快人工智能立法进程,推进人工智能治理法治化,更好发挥法治对于人工智能健康发展的引领、规范和保障作用。一、人工智能立法的逻辑导向和主要模式由于各国在人工智能技术发展、社会文化背景、法律传统等方面存在差异,各国人工智能立法体现出了不同的逻辑导向和立法模式。(一)人工智能立法的两大逻辑导向人工智能作为引领未来的战略性技术,是新一轮科技革命和产业变革的核心驱动力,因此对人工智能的立法规制需要衡量人工智
8、能技术和产业的发展及其安全治理需求,然而这两者不可避免地存在一定的冲突与矛盾。一方面,人工智能技术的发展会带来更大的安全风险。例如,人工智能系统需要大量的数据进行训练和优化,将带来更大的数据泄露和个人隐私风险;人工智能技术将暴露更大的系统攻击面,增加网络攻击风险;自动驾驶汽车、智能医疗诊断等人工智能自主决策场景在系统决策算法存在缺陷或被恶意篡改的情况下,可能导致严重的安全事故;人工智能技术还可能被用于制造恶意软件、进行网络钓鱼等非法活动;如果人工智能技术被用于全球人工智能立法的主要模式、各国实践及发展趋势研究2监视和控制,将侵犯个人隐私和自由,引发严重的社会问题。另一方面,安全治理在一定程度上
9、会制约人工智能技术的快速发展。一是导致合规成本增加。为了符合安全治理和合规要求,企业需要在技术研发、产品设计、数据收集与处理等各个环节增加投入,从而增加企业运营成本,或导致研发投入减少。二是限制技术创新。安全治理往往伴随一系列限制性规定,例如限制某些数据的使用方式或算法的应用范围以保护个人隐私、要求采用更为保守的技术方案以保障系统安全等,这些限制在一定程度上制约了人工智能技术的创新空间。三是提高市场准入门槛。安全治理往往会提高企业的市场准入门槛,可能导致一些中小企业或初创企业因难以承担高昂的合规成本而难以进入市场,从而削弱市场竞争活力。四是政策滞后性带来监管不确定风险。法律法规的制定和修订速度
10、往往滞后于技术发展速度,导致企业在技术创新过程中面临不确定性和风险,或使企业在投资决策时更加谨慎,从而减缓技术发展速度。五是加大国际合作壁垒。不同国家和地区在人工智能、数据跨境流动、技术出口管制等方面的法律法规、政策标准和行业规范存在差异,可能导致国际合作面临障碍,从而制约人工智能技术的跨国界快速发展。各经济体基于自身发展需求对人工智能展开法律规制,平衡人工智能安全与人工智能技术创新,体现出不同的立法导向。以美国为代表的国家以推动技术发展为导向进行人工智能立法。美国的法律、政治与文化一直信任市场力量,支持企业通过市场竞争为消费者与市场提供优质产品,这一导向在人工智能领域也得以体现。美全球人工智
11、能立法的主要模式、各国实践及发展趋势研究3国对于国内人工智能发展强调市场主导与创新驱动,在风险防范方面强调行业自律而不是强有力的政府监管。在这种理念的指导下,美国的人工智能立法主要针对政府机构,对企业的限制仅限于消费者知情权、反歧视保护等方面。以欧盟为代表的经济体则以安全规制为导向推进人工智能立法。目前全球的产业与技术主要集中在美国与中国尤其是美国,而欧盟则几乎没有特别具有影响力的数字企业与领先技术,欧盟在人工智能等数字经济领域的技术硬实力逐渐降低,其影响力日益集中在规则制定的软实力领域。欧盟在价值取向上更注重人工智能本身的安全,对人工智能进行统一立法,既可以对数字产业进行有效规范,又可以利用
12、立法对域外大型互联网与科技企业进行有效监管。(二)人工智能立法的四大主流模式通过立法规制人工智能已成为各国共识,各国不断探索采用符合本国国情的立法模式,以实现技术向善、规范运行的目的。立法模式是指一定时期内,一个国家或地区在某一领域制定法律的表现形式。纵观各国家和地区的人工智能立法实践,目前主要立法模式可以划分为统一立法模式、场景立法模式、融合立法模式、软法先行模式四种。值得注意的是,立法是一项复杂的国家行为,各国的人工智能立法并非只体现为单一的立法模式,往往会融合不同立法模式。一是统一立法模式。统一立法模式是指国家制定一部专门的人工智能法案,对人工智能的定义、发展、安全治理、监督管理等作全球
13、人工智能立法的主要模式、各国实践及发展趋势研究4统一规定,对人工智能进行垂直性和体系性治理,欧盟是统一立法模式的代表。整体上看,统一立法模式通常会对人工智能进行统一界定以确保法律规范的同一性和一致性,由专门机构统一负责监管执法以确保执法的专业性,还会明确违反法案所承担的法律责任。欧盟是统一立法模式的典型代表。二是场景立法模式。场景立法模式是一国针对特定场景或特定领域制定不同的法案规范人工智能应用。与统一立法模式不同,场景立法模式下人工智能相关立法并不会对人工智能进行全面规制,而是对消费、金融、教育等不同场景下的人工智能应用进行规范,从而在推动人工智能创新发展的同时,确保在重要领域和场景下的规范
14、应用和安全治理。美国是场景立法模式的典型代表。三是融合立法模式。融合立法模式是针对人工智能的法律规定分散融合在其他部门法中,用以规范不同行业领域的人工智能安全应用。在融合立法模式中,对于人工智能的规范通常作为消费者保护、产品责任、个人信息保护等立法的重要内容之一,而不是作为专门规制的对象进行立法。美国也是融合立法模式的典型代表。四是软法先行模式。软法是指不能运用国家强制力保证实施的法律规范。与软法相对应的概念是“硬法”,是指具有强制约束力的法律规范。硬法通常会经过严格的立法程序和审查机制,法律条文具有高度的确定性,难以较好地应对人工智能技术的复杂性和不确定性。因此,软法作为一种更加灵活、更具“
15、实验性”的治理工具,被越来越多地应用于人工智能的治理中。在人工智能立法过程全球人工智能立法的主要模式、各国实践及发展趋势研究5中,优先采用不具有法律约束力但会产生实际规范效果的行为准则、政策指导等软法手段,能够增强法律规范的灵活性和对人工智能技术的适应性,降低监管成本,在一定时期实现对人工智能技术的有效治理。很多国家在人工智能立法最初阶段都是从软法开始的,新加坡是目前软法先行立法模式的典型代表。比较全球主流的人工智能立法模式,会发现各个模式各有优缺点。统一立法模式能够最大程度集中国家力量,一方面能够协调一国内部法律规范,形成严密的治理法网,实现跨领域综合监管;另一方面,通过合规义务和法律责任进
16、行垂直适用,有利于维护监管执法的公平公正,取得全球智能治理的规范优势。但统一立法模式明确界定人工智能相关概念范围,在面对技术更迭时易因灵活性和针对性不足而减损规范效果,还面临标准设定困难及风险动态变化的问题。场景立法模式和融合立法模式针对特定行业领域的人工智能应用进行立法规范,主要通过融入传统部门法或推出针对性法案进行规制,可最大限度地维护原有规范体系的稳定性,还具有渊源多元、形式灵活等特点,既可结合新型人工智能做到“急法先用”,又可留出试错空间推动人工智能技术迭代创新。但分散立法不利于全盘布局和持续发展,可能出现立法冲突、重复立法等问题,损害立法的体系性和权威性。同时多元执法机构在针对同一违
17、规行为时,因规范适用的差异及权责边界的模糊,可能执法不公或重复处罚,甚至形成执法盲区。软法先行模式在人工智能处于高速发展的阶段能够为技术创新留出空间,通过指导性规范引导技术健康向善发展,全球人工智能立法的主要模式、各国实践及发展趋势研究6但软法模式下人工智能监管主要依靠柔性的伦理、原则或指南,缺乏强制性的法律责任,实际上很难发挥法律威慑作用。二、主要经济体人工智能立法实践人工智能属于新生事物,在人工智能立法方面各国家和地区均处于探索阶段,基于具体国情、发展实际和价值取向,采取了不同的立法路径。(一)欧盟:以安全规制为导向,实行统一立法模式欧盟在人工智能安全和技术创新的平衡中更加偏向安全治理,体
18、现出安全规制导向。除了防范人工智能技术发展带来的安全风险外,欧盟高度重视人工智能安全规制还出于几方面考虑。一是保护公民基本权利。欧盟高度重视个人的权利和自由,无论是数据保护还是人工智能保护均体现出高度重视个人权利保护的立法导向。人工智能技术的快速发展和应用,对公民隐私权等基本权利构成了潜在威胁。欧盟通过制定严格的人工智能监管法案规范人工智能的应用,要求人工智能系统的开发者和部署者遵守透明度要求,保护用户数据的安全和隐私。二是提升欧洲数字市场的凝聚力和竞争力。在数字时代,欧洲面临着来自全球范围内的竞争压力。为了提升欧洲数字市场的凝聚力和竞争力,欧盟制定统一的法律框架来监管人工智能技术,为所有成员
19、国提供了统一的法律指引,有助于消除监管碎片化,提升欧洲在数字领域的整体实力。三是维护欧盟的“数字主权”。在人工智能等前沿技术上,欧盟目前落后于美国和中国。为了维护自身的“数字主权”,欧盟希望通过强监管来规范外国技全球人工智能立法的主要模式、各国实践及发展趋势研究7术公司的行为,同时促进本地技术创新,有助于欧盟在数字领域特别是监管规则方面形成全球范式,掌握全球人工智能规则制定的主导权。欧盟作为人工智能统一立法模式的典型代表,较早开始人工智能立法实践,经过多年的探索实践和立法程序,最终形成了全球首部专门的人工智能法案。欧盟自 2016 年起就不断探索推进对人工智能技术应用的监管体系建构,相关部门陆
20、续发布欧盟机器人民事法律规则算法的可问责和透明的治理框架可信人工智能伦理指南试行“可信赖人工智能的指引评估清单”等指导性文件。在此基础上欧盟不断推进人工智能统一立法进程。2021 年 4 月,欧盟委员会提出了关于欧盟人工智能监管框架的建议,同时提出了人工智能法案提案的谈判授权草案,建议在立法中制定一个技术中立的人工智能系统定义,并根据“基于风险的路径”为不同风险的人工智能系统进行分类,并制定相应的监管举措。此后,欧洲议会和欧盟理事委员会针对该草案进行了多轮修订和讨论,于 2022年 12 月形成了人工智能法案折中草案最终版。2023 年 6 月,欧洲议会以 499 票赞成、28 票反对和 93
21、 票弃权,高票通过了人工智能法案谈判授权草案。此次谈判全面禁止了人工智能用于生物识别监控、情绪识别与预测性警务,同时也规定了生成式 AI 系统必须披露人工智能生成的内容,在选举中用于影响选民的人工智能系统被认为具有高风险。这份谈判授权草案推动了该法案进入立法程序的最后阶段,2023 年 12 月,欧洲议会、欧洲理事会和欧盟委员会三全球人工智能立法的主要模式、各国实践及发展趋势研究8方就人工智能法案达成协议。2024 年 2 月 2 日,欧盟 27 国代表在人工智能法案文本上达成临时政治共识。3 月 13 日,欧盟议会以 523 票赞成、46 票反对和 49 票弃权审议通过 人工智能法案,标志着
22、全球人工智能领域监管迈入新时代。欧盟人工智能法案对人工智能系统进行了统一界定和分类,并对风险进行分级管理,还对通用人工智能模型进行了规定,为各国提供了人工智能监管规则范例。表 1 欧盟人工智能法案重点内容重点事项主要内容法案适用主体及除外情形法案旨在规范整个人工智能产业链的主体,适用主体包括与欧盟市场有连接点的人工智能系统提供商、使用商、进口商、分销商和产品制造商。法案也规定了一些适用的例外情形,包括但不限于(1)仅为科学研究和开发目的而专门开发和投入使用的人工智能系统或人工智能模型及其输出;(2)在纯粹个人非专业活动中使用人工智能系统的自然人;(3)专门为军事、国防或国家安全目的而投放市场、
23、投入使用的人工智能系统。人工智能系统的定义法案明确人工智能系统是一种基于机器的系统,设计为以不同程度的自主性运行,在部署后可能表现出适应性,并且为了明确或隐含的目标,从其接收的输入中推断如何生成可影响物理或虚拟环境的输出,如预测、内容、建议或决定。人工智能系统的分类法案将人工智能系统分为两类:一是产品构成类,例如医疗器械、自动驾驶、轮船、玩具等产品内部包含的人工智能系统;二是独立于产品的辅助决策类,例如用于招聘雇佣、招生升学、移民筛查、执法检查等各类应用场景的人工智能系统。法案将这些不同类别的人工智能系统进行统一规制。人工智能系统的风险分级管理法案将风险分为不可接受风险、高风险、有限风险、最小
24、风险四类,每个类别适用不同程度的监管要求。禁止类的风险主要包括利用潜意识技术扭曲个人或群体的行全球人工智能立法的主要模式、各国实践及发展趋势研究9重点事项主要内容为,造成重大伤害、利用人工智能危害特定弱势群体、进行社会信用评分、利用人工智能进行特定侵入性的执法等类型。高风险主要包括应用于现有欧盟产品安全法范围的人工智能系统,以及在生物识别、关键基础设施、教育和职业培训、就业等特定领域应用人工智能系统。对于高风险的人工智能,人工智能系统的提供者需要承担一系列责任。通用人工智能模型管理法案明确通用人工智能模型是一个包括使用大量数据进行大规模自我监督训练的人工智能模型。该模型具有显著的通用性,无论以
25、何种方式投放市场,都能胜任各种不同的任务,并可集成到各种下游系统或应用中,但在投放市场前用于研究、开发或原型设计活动的人工智能模型除外。法案将通用人工智能模型分为不具有系统性风险的通用人工智能模型和具有系统性风险的通用人工智能模型。如果通用人工智能模型具有高度影响能力或被欧盟委员会认定为具有高度影响能力,则被视为构成系统性风险,需要承担特殊责任,例如进行模型评价,评估和减轻系统性风险,追踪、记录和报告严重事件的相关信息与可能的纠正措施,确保足够水平的网络安全保护等责任。(二)美国:以技术发展为导向,实行融合立法和场景立法模式美国人工智能立法秉持着以技术发展为导向的传统,未制定联邦层面的综合性立
26、法对人工智能实施统一监管。美国的法律体系对科技创新具有很高的包容性,对综合性的科技规制立法历来持审慎立场。在人工智能领域,美国秉持着技术发展导向,致力于强化其在人工智能领域的全球领导地位。在联邦层面,主要通过发布总统行政令指引人工智能规范化发展。总统颁布行政令虽然具有宪法或国会的授权,但其本身并不算严格意义上的法律,主要在特定事项上影响和引导联邦机构、企业等主体的行为。特朗普政府时期关于人工智能的总统行政令以促进人工智能发展为导向,旨在保持美国全球人工智能立法的主要模式、各国实践及发展趋势研究10在该领域的领导地位。2019 年 2 月,特朗普政府发布第 13859 号行政命令保持美国在人工智
27、能领域的领导地位,要求联邦政府机构协调一致,推进“美国人工智能行动计划”,就美国联邦政府层面人工智能的研究、推广和培训做出全面部署,以确保美国在 AI 研发及相关领域的全球领先优势。2020 年 12 月 3 日,特朗普政府发布第 13960 号行政命令促进联邦政府使用值得信赖的人工智能,规定了除国家安全和国防领域以外的联邦政府机构在设计、开发、部署、购买或使用人工智能技术时需要遵循的 9 项基本原则。拜登政府发布的人工智能相关总统行政令则开始关注重点领域人工智能的安全治理和规范化应用。2023年10月30日,拜登政府颁布第14110号总统行政命令安全、可靠和值得信赖地开发和使用人工智能,要求
28、美国联邦政府机构在刑事司法、教育、医疗保健、住房和劳工等领域制定标准与规范。针对人工智能企业,该行政令援引1950年国防生产法,要求企业在对国家安全或公共健康安全构成严重风险的人工智能模型训练方面与联邦政府共享信息。美国在各行业领域立法中融入人工智能相关规定,或由各行业监管部门适用或解释相关规定以开展人工智能治理,体现出“融合立法”特征。联邦贸易委员会(FTC)等联邦机构以及各个州的立法通过适用或解释现有法律监管各个行业领域的人工智能应用。例如,在消费者保护领域,联邦贸易委员会法第 5 条“禁止不公平或欺诈行为”被监管部门应用于人工智能监管,FTC 基于该法对 OpenAI公司进行了正式调查。
29、在金融领域,公平信用报告法和平等全球人工智能立法的主要模式、各国实践及发展趋势研究11信用机会法均涉及对自动化决策的监管,美国金融机构在应用基于机器学习的信贷承销模型时均需符合相关规定。在航空领域,美国国会在通过2018 年美国联邦航空局再授权法案时增加了“建议联邦航空管理局定期审查航空领域人工智能的状况,并采取必要措施应对新发展”的内容。为顺应人工智能的广泛应用,美国各州针对人工智能技术应用程度较深的特定场景进行了广泛的立法实践。为规制用工场景下的人工智能应用,伊利诺伊州 2019 年颁布人工智能视频面试法案,规定企业使用人工智能面试应聘者时,应审查其是否满足告知同意、限制共享、删除权响应等
30、合规义务。纽约市 2021 年通过第 144 号地方法律,禁止雇主和职业中介在没有进行偏见审计的情况下使用人工智能和基于算法的技术进行招聘、雇佣或晋升。为规范选举场景下的人工智能应用,密西西比州 2024 年 4 月通过了 SB 2577 号法案,将选举前 90 天内以深度伪造等方式蓄意传播意图伤害选举人以及影响选举结果的“数字化”行为定为犯罪。加利福尼亚州 2024 年 9 月颁布了三项新法案来遏制虚假信息和欺骗性选举内容的传播。纽约州 2023 年 5 月发布政治人工智能免责声明(PAID)法案,要求使用合成媒体发布政治信息的主体声明其通过人工智能生成并保存此类使用记录。佛罗里达州、密歇根
31、州等州对在政治广告中使用人工智能行为进行了立法规范。此外,科罗拉多州人工智能法 犹他州人工智能政策法案等州层面的人工智能立法主要规范人工智能应用过程中的消费者保护,加利福尼亚州的前沿人工智能模型全球人工智能立法的主要模式、各国实践及发展趋势研究12安全创新法案则聚焦于促进人工智能发展和监管人工智能带来的重大公共风险。(三)新加坡:以技术发展为导向,实行软法先行模式新加坡位于马来半岛南端,其陆地面积较小,自然资源有限,希望抓住人工智能发展机遇,建立强大的数字基础设施,营造支持创新的商业环境,吸引高质量人才和投资,从而实现发展和繁荣。英国媒体 Tortoise Media2023 年发布的全球人工
32、智能指数显示,新加坡人工智能投资、创新和应用水平位居世界第三,仅次于美国和中国。新加坡以推动技术发展为导向,采取“软法先行”的模式,未出台强制性立法,而是采取“原则+指南+工具”的治理路径,通过发布非约束性的指南和建议实施人工智能治理,在最大程度推动人工智能技术创新和产业发展的同时引导人工智能安全规范发展。在国家层面,通过出台人工智能战略分阶段实现人工智能发展和治理目标。2019 年 11 月,新加坡政府发布了首个国家人工智能战略(NAIS),提出了推动人工智能创新和应用的计划。2023 年 12月,新加坡推出了国家人工智能战略 2.0 版本,承诺在基础设施建设、政府监管、人才培养、营商环境培
33、育、数据安全和隐私保护等方面采取行动,计划在未来三到五年内,推进人工智能发展和价值创造,实现人工智能规范化应用,从而提升新加坡的经济和社会潜力。在信息通信领域,研究发布人工智能治理相关模型框架、应用指南和实用工具。2019 年 1 月,新加坡信息通信媒体发展局和个人数据保护委员会联合发布了亚洲首个人工智能监管模式框架,为人全球人工智能立法的主要模式、各国实践及发展趋势研究13工智能的应用提供道德指导原则。2020 年 1 月,更新发布第二版框架,同时发布了配套的组织实施和自我评估指南,帮助各类组织机构评估其人工智能治理实践与模型框架的一致性,还发布了 人工智能治理案例汇编,为行业实践提供有效参
34、考。2022 年 5 月,信息通信媒体发展局推出名为“AI Verify”的人工智能治理测试框架和工具包,通过标准化测试验证人工智能系统的性能是否符合国际公认的原则。2023 年中,新加坡通讯及新闻部长宣布成立 AI Verify基金会,以支持 AI Verify 的发展和使用。新加坡还计划将其提升为国际范围内使用的测试框架和工具包,并为国际标准的制定作出贡献。2024 年 5 月,AI Verify 基金会正式发布生成式人工智能治理模型框架,涵盖问责、数据、可信研发和部署、事件报告、测试和保证、安全、内容来源、安全与对齐研发、人工智能促进公益 9个治理维度。在金融领域,强化政企合作推进人工智
35、能治理。新加坡金融管理局作为新加坡的中央银行和综合金融监管机构,率先在人工智能治理方面采取行动。2018 年,金融管理局与金融行业共同创建了一套“FEAT 原则”,即公平(Fairness)、伦理(Ethics)、问责(Accountability)和透明(Transparency),从而指导人工智能的负责任使用。2019 年,金融管理局宣布与金融行业合作创建“Veritas 框架”,指导金融机构将 FEAT 原则纳入其人工智能和数据分析驱动的解决方案中,旨在为金融部门的人工智能采用建立一个可信赖的环境。在医疗卫生领域,发布指南提升患者对人工智能技术的信任。全球人工智能立法的主要模式、各国实践
36、及发展趋势研究14作为亚太地区最大的医疗设备出口国之一,新加坡拥有成为领先医疗技术中心所需的强大制造业基础。近年来,新加坡日益面临医疗保健成本上升、慢性病负担加重、医疗人员短缺等问题,人工智能等创新医疗技术的发展为应对挑战提供了重要机遇。新加坡 2019 年发布的国家人工智能战略将医疗卫生领域作为人工智能发展的五大重点领域之一。通过促进人工智能研究投资、培养人才、建立配套数字基础设施等措施,加快人工智能创新和运用,有利于提高疾病检测效率,同时加强对慢性病分析预测和干预。为了强化医疗卫生领域的人工智能治理,2021 年 10 月,新加坡卫生部发布了医疗人工智能指南,促进患者提高在医疗过程中使用的
37、人工智能信任并保障患者信息安全,强化了对人工智能医疗设备的监管和指引。为强化人工智能网络安全水平,发布系列指南应对人工智能系统风险。2024 年 10 月 15 日,新加坡网络安全局(CSA)制定并发布了人工智能系统安全指南及其配套的人工智能系统安全配套指南,指导系统所有者在人工智能的整个生命周期内确保安全。这两个指南将有助于保护人工智能系统免受供应链攻击等传统网络安全风险和对抗性机器学习等新风险的影响。指南主要面向人工智能系统开发人员、人工智能系统运营人员、网络安全从业员三类主体,针对规划与设计、开发、部署、运营与维护、数据和模型的终止处理等人工智能系统生命周期的五个重要环节提供安全指引。(
38、四)中国:统筹发展和安全,实行融合立法和场景立法模式我国在人工智能立法的价值导向方面体现出统筹发展和安全的全球人工智能立法的主要模式、各国实践及发展趋势研究15理念。我国在不断完善现有法律法规的同时,不断推进人工智能治理的立法进程,2017 年,国务院发布的新一代人工智能发展规划提出了“三步走”的立法规划,即到 2020 年实现“部分领域的人工智能伦理规范和政策法规初步建立”,到 2025 年“初步建立人工智能法律法规、伦理规范和政策体系”,到 2030 年“建成更加完善的人工智能法律法规、伦理规范和政策体系”。在立法模式的选择方面,我国的科技立法一般体现出“小快灵”的特点,“小”即调整对象精
39、准,“快”即针对突出问题及时立法,“灵”即增强立法的针对性、实效性。虽然目前统一的人工智能立法尚未出台,但我国将人工智能安全发展相关原则融入个人信息保护法等现有立法,还针对生成式人工智能、深度合成等场景出台了专门的部门规章,为人工智能的安全发展提供了及时的法律回应和依据,也体现出我国科技立法的“小快灵”特点。在现有立法中融入人工智能安全发展的原则性规定以顺应人工智能技术的发展趋势。随着人工智能技术的不断发展,人工智能与各领域融合应用的程度不断加深,我国陆续在相关法律法规中融入人工智能安全发展的相关原则。一方面鼓励人工智能在相关领域的融合创新和技术赋能,例如中华人民共和国突发事件应对法 中华人民
40、共和国基本医疗卫生与健康促进法中华人民共和国中小企业促进法国际邮轮在中华人民共和国港口靠港补给的规定未成年人网络保护条例无人驾驶航空器飞行管理暂行条例中华人民共和国海关风险管理办法网络暴力信息治理规定全球人工智能立法的主要模式、各国实践及发展趋势研究16等,这些法律法规主要是在法条中加入鼓励采用人工智能技术的相关内容。另一方面强化对人工智能的安全管理,例如中华人民共和国个人信息保护法网络数据安全管理条例等,主要是强化对人工智能技术的规制以及施加提供人工智能服务的数据处理者义务。表 2 我国现有法律法规中人工智能安全发展相关内容名称公布时间人工智能安全发展相关规定法律中华人民共和国突发事件应对法
41、(2024 修订)2024 年 6 月 28 日第五十六条国家加强应急管理基础科学、重点行业领域关键核心技术的研究,加强互联网、云计算、大数据、人工智能等现代技术手段在突发事件应对工作中的应用,鼓励、扶持有条件的教学科研机构、企业培养应急管理人才和科技人才,研发、推广新技术、新材料、新设备和新工具,提高突发事件应对能力。中华人民共和国个人信息保护法2021 年 8 月 20 日第六十二条国家网信部门统筹协调有关部门依据本法推进下列个人信息保护工作:.(三)针对小型个人信息处理者、处理敏感个人信息以及人脸识别、人工智能等新技术、新应用,制定专门的个人信息保护规则、标准;.中华人民共和国基本医疗卫