定制报告-个性化定制-按需专项定制研究报告
行业报告、薪酬报告
联系:400-6363-638

《2024美众议院两党人工智能工作组报告:推进美国人工智能发展的指导原则及具体建议(中译本)(272页).pdf》由会员分享,可在线阅读,更多相关《2024美众议院两党人工智能工作组报告:推进美国人工智能发展的指导原则及具体建议(中译本)(272页).pdf(272页珍藏版)》请在薪酬报告网上搜索。
1、封面样本内容完成后,设计将最终确定。【公司名称】文件标题文件副标题i两党众议院人工智能工作组目录目录目录目录.i致议长约翰逊和民主党领袖杰弗里斯致议长约翰逊和民主党领袖杰弗里斯.三世的的信信关于第关于第118118届国会两党众议院人工智能工作组届国会两党众议院人工智能工作组领先领先的人工智能进展人工智能进展:政策见解和美国对人工智能采用、负责任创新和治理的愿景哲学与原理哲学与原理调查结果和建议调查结果和建议.概述6 6政府用途政府用途.1政府使用的主要发现.17政府使用建议.19联邦优先购买州法律联邦优先购买州法律.23联邦优先购买州法律的主要发现.29联邦优先购买州法律中的建议.30数据隐私
2、数据隐私.31数据隐私的主要发现.37数据隐私建议.38国家安全国家安全.39国家安全的主要发现.52关于国家安全的建议.53研究、开发和标准研究、开发和标准.54研究、开发和标准的主要发现.71研究、开发和标准建议.73公民权利和公民自由公民权利和公民自由.78公民权利和公民自由的主要发现.84关于公民权利和公民自由的建议.85教育和劳动力教育和劳动力.87教育和劳动力的主要发现.106教育和劳动力建议.107知识产权知识产权.111ii知识产权的主要发现.135知识产权建议.136两党众议院人工智能工作组iii内容真实性内容真实性.137内容真实性的主要发现.152内容真实性建议.153开
3、放式和封闭式系统开放式和封闭式系统.155开放和封闭系统的主要发现.160开放和封闭系统中的建议.161能源使用和数据中心能源使用和数据中心.162能源使用和数据中心的主要发现.173能源使用和数据中心建议.174小企业小企业.176小企业的主要发现.182小企业建议.183农业农业.185农业的主要发现.196农业建议.198医疗保健医疗保健.200医疗保健的主要发现.218医疗保健建议.219金融服务金融服务.221金融服务的主要发现.236金融服务建议.237附录一:人工智能工作组成员.239附录二:人工智能工作组活动.242附录三:主要政府政策.246附录四:未来探索领域.248附录五
4、:人工智能技术概述.249附录六:.AI251的定义挑战致谢.253两党众议院人工智能工作组iv尊敬的迈克约翰逊尊敬的哈基姆杰弗里斯演讲者民主领袖美国众议院美国众议院华盛顿特区20515尊敬的约翰逊议长和杰弗里斯领袖:我们,两党人工智能工作组的联合主席,在本报告中向您提交我们的主要发现。尽管人工智能(AI)不是一个新概念,但过去几年惊人的技术进步使AI成为众多政策讨论的焦点。人工智能具有巨大的潜力,可以改善社会和经济,应对复杂的国家挑战。从优化制造到开发治疗严重疾病的方法,人工智能可以大大提高生产力,使我们能够更快、更经济地实现目标。然而,我们也认识到人工智能可能被滥用并导致各种类型的伤害。本
5、报告强调了美国在负责任的人工智能创新方面的领导地位,同时考虑了可能适合保护国家免受当前和新兴威胁的护栏。你要求24名成员、12名共和党人和12名民主党人制定美国人工智能采用、创新和治理的愿景。人工智能工作组从行业、政府、民间社会和学术界的领域专家那里收集了有关突出人工智能问题的信息,提供了66项关键发现和85项建议。总之,本报告概括了一种有针对性的方法,在我们进入人工智能广泛采用的时代时,平衡了促进充满活力的人工智能创新的需要,同时保护美国人免受潜在的伤害。我们感谢您成立人工智能工作组,并渴望这份报告为未来的国会政策制定提供信息。真诚地JayObernolte董事长刘联合主席两党众议院人工智能
6、工作组v关于第关于第118118届国会两党众议院人工智能工作组届国会两党众议院人工智能工作组两党人工智能工作组由议长约翰逊和民主党领袖杰弗里斯于2024年2月20日创建。人工智能工作组由联合主席Jay Obernolte(R-CA)和Ted Lieu(D-CA)领导,由24名成员、12名共和党人和12名民主党人组成。人工智能工作组成员来自20个委员会,以确保对我们解决的众多人工智能问题承担全面的管辖责任,并从一系列不同的见解和观点中受益。工作组成员及其所代表的委员会的完整名单包含在附录一附录一。整个2024年,人工智能工作组召开会议,调查人工智能如何与众多政策领域交叉的数十个核心问题。人工智能
7、工作组举行了多次听证会和众多圆桌会议,并与100多名专家进行了接触,其中包括商界领袖、政府官员、技术专家、学者、法律学者和其他领域专家。这些专家慷慨地提供了他们的见解、建议和评论,涵盖了一系列观点。这种方法允许从不同的角度全面探讨每个问题。多方面的政策分析方法将更好地为决策者做好准备,他们将应对我们国家面临的复杂的人工智能挑战,并将继续影响公共政策。专家的完整名单和工作队召集的活动清单载于附录二附录二。领先的人工智能进展:政策见解和领先的人工智能进展:政策见解和美国人工智能采用、负责任创新和治理愿景美国人工智能采用、负责任创新和治理愿景美国是人工智能的全球领导者,这是一种变革性的技术,也伴随着
8、必须负责任地解决的风险。为了确保美国获得经济和国家安全利益,并在这里和世界各地负责任地开发和部署技术,美国必须采取积极措施维护我们目前的领导地位。负责任地开发和部署人工智能有可能在未来几十年帮助提高美国人的生活质量、健康、就业、安全和经济繁荣。美国在人工智能研究、人工智能公司数量、私营部门人工智能投资和人工智能行业采用方面处于世界领先地位。这一压倒性的国家优势源于我们长期以来的两大优势:我们培育了一个蓬勃发展的创新生态系统和一个灵活的行业监管框架。如果保持这些优势,将有助于我们的国家在负责任的人工智能设计、开发和部署方面保持世界无可争议的领先地位。本报告概括了两党众议院人工智能工作组的集体经验
9、和见解。在第118届国会第二届会议期间,工作组就数十个突出的人工智能问题与100多名专家进行了接触。我们咨询了商界领袖、政府官员、技术专家、学者和法律学者,他们都对我们国家面临的各种复杂的人工智能挑战提出了见解、建议和评论。两党众议院人工智能工作组vi本报告阐述了指导原则、66项关键发现和89项建议,分为15章。它旨在为国会为应对人工智能技术的进步而采取的未来行动提供蓝图。工作组成员强烈认为,国会必须为我们社会中的人工智能制定并保持一个深思熟虑的长期愿景。这一愿景应作为我们未来几年采取的许多优先事项、立法举措和国家战略的指导。在考虑新政策时,国会应采取敏捷的方法,使我们能够以有针对性、可实现的
10、方式做出适当的回应,并从所有可用的证据和见解中受益。支持这种敏捷范式需要不断学习和适应。国会应定期评估其政策的有效性,并随着人工智能技术及其影响的发展进行更新。如果我们遵循这种方法,在鼓励创新的同时采取战略行动,我们就可以引领人工智能的发展,并推动人工智能公共政策的全球愿景。这份报告当然不是国会对人工智能问题的最终决定。相反,它应该被视为识别和评估人工智能政策建议的工具。鉴于人工智能政策机遇和挑战的广度,该报告还列出了未来探索的领域。两党众议院人工智能工作组vii哲学与原理哲学与原理除了评估具体的人工智能问题外,工作组还采用了几项高级原则来构建这一政策分析。这些原则代表了超越特定人工智能问题的
11、高级政策考虑,可以帮助指导未来的国会工作。我们确立的原则是:识别识别AIAI问题的新颖性问题的新颖性 推动人工智能创新推动人工智能创新 防范人工智能风险和危害防范人工智能风险和危害 用人工智能赋予政府权力用人工智能赋予政府权力 确认使用部门监管结构确认使用部门监管结构 采取渐进式方法采取渐进式方法 将人类置于人工智能政策的中心将人类置于人工智能政策的中心原则:识别原则:识别AIAI问题的新颖性问题的新颖性如果政策制定者考虑人工智能提出的问题是否真正新颖且没有先例,或者现有的法律法规是否已经解决了根本问题,他们就可以避免重复授权。对于所调查的每个人工智能问题,应确定问题的新颖性,以了解问题是否:
12、由于以前不存在的功能,人工智能真的很新。由于以前不存在的功能,人工智能真的很新。当最近由于现有人工智能技术的性质而出现人工智能问题时,这表明我们需要更彻底地考虑现有的监管制度如何解决这个问题。人工智能已经显著改变人工智能已经显著改变了现有问题的性质。现有问题的性质。如果人工智能正在加剧现有问题,这表明这个问题值得考虑,但与现有的政策范式是一致的。解决这一问题的现有方法可能是适当的,但新的方法也可能是合适的。现有的制度也可能不是为了解决不断发展的技术而设计的。国会应该努力使法律法规现代化,以确保其在应用和执行中具有足够的技术中立性。这是一个没有被当代人工智能能力显著改变的现有问题。这是一个没有被
13、当代人工智能能力显著改变的现有问题。如果人工智能只是实现具有基本相同效果的旧目的的许多方法之一,那么这表明现有的法律、法规和监管机构可能最适合评估和解决这个问题。两党众议院人工智能工作组viii原则:促进人工智能创新原则:促进人工智能创新作为人工智能开发和部署的全球领导者,美国最有能力负责任地为所有人发挥这项变革性技术的潜力。为了保持这种领导地位,使美国经济能够充分利用人工智能的好处,政策制定者应该继续促进人工智能创新。原则:防范人工智能风险和危害原则:防范人工智能风险和危害我们有义务保护美国人免受人工智能的意外和恶意使用。有意义的人工智能治理将需要技术和政策解决方案的结合,寻求理解、识别和减
14、轻人工智能系统开发和部署的潜在风险和危害。一种深思熟虑的、基于风险的人工智能治理方法可以促进创新,而不是扼杀创新。此外,对于人工智能产生的每一个问题,人工智能都可以成为帮助修复或解决该问题的候选者。虽然技术解决方案并不总是可行的,但在制定政策时,应牢记其在人工智能政策中的应用。这一点尤其重要,因为人工智能技术继续快速发展,可能比过去的技术革命更频繁地出现新问题。原则:政府在负责任使用中的领导原则:政府在负责任使用中的领导信任是美国公共和私营部门广泛采用人工智能的必要组成部分。联邦政府应该通过采取负责任的原则和政策来培养这种信任,这些原则和政策可以捕捉到人工智能的好处,同时应对其风险并以身作则。
15、鉴于人工智能在我们经济中的突出作用,用人工智能为政府服务提供动力也是必要的。我们必须确保国会、联邦机构、法院和其他政府实体利用人工智能来改善他们的服务、速度、效率和质量原则:支持特定行业的政策原则:支持特定行业的政策为了对人工智能政策采取敏捷和集中的方法,联邦机构和政府其他部门的特定部门监管机构应利用其现有权力,在各自的专业领域和人工智能使用的背景下应对人工智能的使用。这将使联邦机构和利用人工智能的实体之间能够进行更知情、更有效的接触。机构的专业知识应继续集中在最有效的地方。特定行业的监管机构也将受益于利用联邦人工智能资源库。这些资源的例子包括人工智能专业知识、人工智能就绪数据、计算硬件、技术
16、资源以及允许安全评估人工智能风险的评估。此外,联邦机构之间通过机构间结构进行协调可以改善对这些资源的获取。改善访问和协调可以赋予机构人工智能技能,使他们能够分享经验教训,同时确保他们继续专注于自己最擅长的领域。两党众议院人工智能工作组ix原则:采取渐进式方法原则:采取渐进式方法人工智能是一项快速发展的技术。期望国会今年颁布立法,作为其对人工智能政策的最后决定,这是不合理的。正确使用人工智能技术需要一个精心设计、持久的政策框架。在本报告中,我们提出了一些建议,以开始构建这个框架,并理解随着人工智能能力的不断进步,我们必须保持谦逊,承认我们不知道我们不知道什么。政策可能需要随着人工智能的进步而调整
17、和发展。国会在未来几年如何应对人工智能方面必须保持警惕和灵活。原则:将人类置于人工智能政策的中心原则:将人类置于人工智能政策的中心人工智能系统反映了设计它们的人的原则,需要人工输入来训练它们。美国还需要吸引、培训和留住人才,以保持这项技术的竞争力。此外,人工智能带来的自动化将对劳动力市场产生一些影响。当政策制定者考虑专注于人工智能发展和治理的法律法规时,他们应该关注人类的影响和人类自由。两党众议院人工智能工作组x两党众议院人工智能工作组:建议概述两党众议院人工智能工作组:建议概述政府使用政府使用联邦机构已经开始利用人工智能来授权现有的机构任务并简化程序。虽然用例在应用和成熟度方面各不相同,但负
18、责任的政府使用人工智能的好处具有潜在的变革性。然而,不负责任或不当的使用会给个人隐私、安全以及政府对所有公民的公平和平等待遇带来风险。主要发现主要发现 联邦政府应利用核心原则,避免与现行法律相冲突。联邦政府应该警惕基于算法的决策。联邦政府应通知人工智能在政府职能中的作用。各机构应关注人工智能系统的基础。联邦劳动力的角色和相关的人工智能知识和技能不明确,差异很大。基于技能的招聘对于满足联邦劳动力对人工智能人才的需求至关重要。建议建议 采取信息和系统层面的方法在联邦政府中使用人工智能。支持灵活治理。使用人工智能减少行政负担和官僚主义。要求各机构通报人工智能在政府职能中的作用。促进并采用人工智能标准
19、供联邦政府使用。支持NIST为联邦人工智能系统制定指导方针。改善联邦系统的网络安全,包括联邦人工智能系统。鼓励支持人工智能发展的数据治理策略。国会和政府必须了解联邦政府的人工智能劳动力需求。支持人工智能人才通过不同途径进入联邦服务。联邦优先购买州法律联邦优先购买州法律联邦立法优先于州人工智能法律是国会可以用来实现各种目标的工具。然而,联邦优先购买权提出了应该考虑的复杂的法律和政策问题。主要发现主要发现 联邦政府在人工智能问题上优先于州法律是复杂的。两党众议院人工智能工作组xi 联邦优先购买权有利有弊。优先购买权可以允许州政府采取行动,但须遵守最低或最高限额。优先购买权可以是多方面的。定义必须符
20、合目的。建议建议 研究跨部门适用的人工智能法规。数据隐私数据隐私随着人工智能系统积累和分析大量数据,未经授权访问私人信息的风险越来越大。深思熟虑且有效的数据隐私政策和保护措施将增强消费者对人工智能系统负责任开发和部署的信心。主要发现主要发现 人工智能有可能加剧隐私损害。美国人对许多隐私损害的追索权有限。联邦隐私法可能会增强州法律。建议建议 探索以增强隐私的方式促进数据访问的机制。确保隐私法普遍适用且技术中立。国家安全国家安全与任何主要的两用技术一样,人工智能有可能加强和破坏国家安全。这凸显了其在美国国防战略中的重要性。目前,美国国家安全生态系统正在使用和开发人工智能,但与人工智能相关的研究和开
21、发中有很大一部分是在政府活动之外进行的。两党众议院人工智能工作组xii主要发现主要发现 人工智能是国家安全的重要组成部分。美国的对手正在采用人工智能并将其军事化。国家安全需要先进的云访问和人工智能。国家安全需要人工智能来应对有争议的环境。人工智能可以极大地改善国防部的业务流程。建议建议 将国会监督重点放在国家安全的人工智能活动上。支持国防部扩大人工智能培训。继续监督自主武器政策。支持在军事环境中使用人工智能的国际合作。研究、开发和标准研究、开发和标准美国仍然是基础研究和标准的领导者,并始终在其他国家之前生产尖端的人工智能应用程序。为了保持美国在全球人工智能创新和治理方面的领导地位,国会将需要继
22、续开展联邦研发工作,支持人工智能评估,并加强美国人工智能的标准化工作。主要发现主要发现联邦政府对基础研究的投资使当前的人工智能机会成为可能。持续的人工智能研究和评估将促进人工智能的进步。人工智能研发的进展与获取人工智能资源密切相关。封闭的人工智能研究生态系统可能会限制美国在人工智能领域的竞争力。大学人工智能研发是必要的,但必须与充满活力的技术转让活动相结合。围绕人工智能评估推进科学研究将有助于推动采用。美国在标准制定方面处于全球领先地位,但面临着竞争对手。建议建议持续监测和评估人工智能对不同行业和国家的影响。支持基础研发,以保持人工智能创新的领先地位。增加从大学研发到市场的技术转移。两党众议院
23、人工智能工作组xiii 促进人工智能研发的公私合作。促进围绕人工智能评估和测试的研究和标准化。促进基础设施和数据的发展,以实现人工智能研究。继续参与国际标准制定。坚持美国制定标准的做法。将国家人工智能战略与更广泛的美国技术战略相结合。探索如何利用人工智能加速跨学科的科学发现。支持小企业的人工智能研发。鼓励与志同道合的盟友和合作伙伴在研发方面进行国际合作。公民权利与公民自由公民权利与公民自由有缺陷或滥用技术的不利影响不是新的发展,而是设计和使用人工智能系统的重要考虑因素。人工智能模型和更一般的软件系统可能会产生误导或不准确的输出。根据有缺陷的产出采取行动或做出决定可能会剥夺美国人的宪法权利。主要
24、发现主要发现人工智能的不当使用会违反法律,剥夺美国人最重要的权利。了解人工智能模型的可能缺陷和缺点可以减轻人工智能的潜在有害用途。建议建议当人工智能用于高度重要的决策时,让人类参与进来,积极识别和补救潜在的缺陷。各机构必须了解并防止在歧视性决策中使用人工智能。为行业监管机构提供工具和专业知识,以解决其领域内与人工智能相关的风险。探索受人工智能决策影响的用户的透明度。支持标准和技术评估,以减轻涉及人工智能系统的有缺陷的决策。两党众议院人工智能工作组xiv教育和劳动力教育和劳动力尽管联邦和州政府做出了努力,但美国在研究、开发和部署人工智能应用程序所需的适当人才方面仍存在巨大差距,而且这一差距还在扩
25、大。对美国学习者进行人工智能主题的教育和培训,对于美国在人工智能技术方面的持续领导地位以及美国的经济和国家安全至关重要。主要发现主要发现 人工智能越来越多地被雇主和雇员用于工作场所。培养国内人工智能人才和美国的持续领导地位将需要大幅改善基础STEM教育和培训。通过利用更熟练的技术劳动力,美国的人工智能领导力将得到加强。在美国采用人工智能需要具备人工智能素养。K-12教育工作者需要资源来提高人工智能素养。建议建议 投资K-12 STEM和人工智能教育,扩大参与。通过提供所需的人工智能资源来提高美国的人工智能技能。全面了解美国的人工智能劳动力。促进公私伙伴关系,以加强人工智能劳动力。在支持政府-大
26、学-产业伙伴关系时,发展区域专业知识。为所有美国人拓宽通往人工智能劳动力的途径。支持人工智能相关工作的工作角色、工作类别、任务、技能集和能力的标准化。评估现有的劳动力发展计划。在美国各地推广人工智能素养。为美国教育工作者提供人工智能培训和资源。支持NSF课程开发。监控劳动法和工人保护与人工智能采用的相互作用。两党众议院人工智能工作组xv知识产权知识产权生成式人工智能技术的进步为知识产权法带来了新的问题,提出了如何对待艺术、文字、品牌、歌曲、发明和其他创作的所有权、创作和保护的问题。主要发现主要发现目前尚不清楚在某些情况下是否有必要采取立法行动,一些知识产权问题目前正在法院审理。生成型人工智能对
27、创意社区提出了独特的挑战。创作者通常很难知道他们的版权作品是否被人工智能开发人员使用。全球知识产权政策格局为开发者和创作者带来了挑战和机遇。虽然一些用例是合法和受保护的表达形式,但深度伪造和有害数字复制品的激增是一个重大而持续的挑战。建议建议 明确知识产权法律、法规和代理活动。适当地应对人工智能创造的deepfakes日益增长的危害。内容真实性内容真实性生成式人工智能系统包括可以生成文本、图像、视频和音频/语音内容的人工智能。这些系统基于大量现有的书面、视觉或音频数据进行训练。这些系统识别训练数据中的统计模式,然后创建与这些模式相匹配的新内容。随着生成式人工智能系统继续接受更多数据和更强大计算
28、资源的训练,它们可以产生质量和真实性越来越高的输出。主要发现主要发现合成内容有许多有益的用途,但如果使用不当,可能会造成危害,破坏人们对信息完整性的信心。目前,内容身份验证还没有单一的最佳技术解决方案。技术素养将有助于应对内容真实性的挑战,但还不够。数字身份技术允许人们在线验证他们是谁,并减少欺诈。建议建议 支持基于风险、多管齐下的内容真实性方法。支持内容真实性的技术解决方案。解决可证明的危害,而不是合成内容的推测性危害。两党众议院人工智能工作组xvi确定人工智能开发人员、内容制作人和内容分销商在合成内容方面的责任。审查与有害合成成分有关的现行法律。确保受害者拥有必要的工具。开放式和封闭式系统
29、开放式和封闭式系统尽管经常被描述为开放或封闭,但事实上存在不同形式的人工智能模型可用性和透明度的连续体。开放模型提供了许多好处,包括定制、透明度和可访问性。然而,恶意行为者利用开放模型造成伤害的风险越来越大,包括实施金融欺诈、威胁国家安全或大规模身份盗窃。主要发现主要发现 开放的人工智能模型鼓励创新和竞争。目前,有限的证据表明开放式模型应该受到限制。建议建议 鼓励人工智能模型开发中的创新和竞争。关注明显的伤害和身体威胁。根据人工智能能力评估化学、生物、放射性或核(CBRN)威胁。继续监控开源模型的风险。能源使用和数据中心能源使用和数据中心创建和使用最先进的人工智能模型需要大量的电力,支持人工智
30、能的数据中心增加了电力需求。这给电网可靠性和可负担的电力带来了挑战,为了美国的经济和国家安全,必须解决这些问题。人工智能也可以成为开发美国能源供应的宝贵工具。两党众议院人工智能工作组xvii主要发现主要发现人工智能对美国的经济利益和国家安全至关重要,维护一个足够强大的电网是必要的。人工智能日益增长的需求给电网带来了挑战。美国在人工智能领域的持续创新需要能源领域的创新。现在正确规划新的发电和输电对人工智能的创新和采用至关重要。人工智能工具将在能源领域的创新和现代化中发挥作用。建议建议支持并增加联邦对科学研究的投资,以实现人工智能硬件、算法效率、能源技术开发和能源基础设施的创新。加强对人工智能数据
31、中心用电量的跟踪和预测。创建新的标准、指标和定义分类,以传达相关的能源使用和效率指标。确保人工智能和能源电网成为关于电网现代化和安全的更广泛讨论的一部分。确保新基础设施的成本主要由获得相关利益的客户承担。促进人工智能的广泛应用,以加强能源基础设施、能源生产和能源效率。小型企业小型企业小企业在保持美国在与其他世界大国的人工智能竞赛中的领先地位方面发挥着至关重要的作用。不幸的是,小企业往往缺乏理解或资源,无法有意义地采用这项关键技术。主要发现主要发现 小企业可能不完全了解如何最好地采用人工智能。小企业可能缺乏足够的资金和人工智能资源。小企业在满足人工智能监管合规方面面临着过多的挑战。两党众议院人工
32、智能工作组xviii建议建议 支持小企业人工智能素养。为小企业采用人工智能提供资源。调查采用人工智能的小企业的资源挑战。调查小型人工智能企业的资源挑战。减轻小型企业的合规负担。农业农业人工智能已经成为一种能够彻底改变农业的强大工具。人工智能的进步有可能增加粮食供应,降低粮食价格,促进经济增长。主要发现主要发现人工智能驱动的精准农业可以提高农场生产力和自然资源管理。增加人工智能集成可以实现机械化和自动化技术,并提高特种作物行业的效率。农村和农业社区缺乏可靠的网络连接,阻碍了人工智能在农业部门的采用。人工智能已经是解决和应对野火和森林健康危机的有力工具。美国农业部更多地采用人工智能可以加强许多农业
33、项目的交付,并降低农民和其他人的成本。CFTC基于原则的方法允许在处理新技术方面具有灵活性。建议建议评估现有项目,以确定在精准农业中推进人工智能的机会。进一步推进人工智能研究和开发,以提高特种作物的效率。继续探索人工智能技术的研究和创新如何通过更好的规划和战略帮助土地管理者改善森林健康。指导美国农业部在项目交付中更好地利用人工智能。继续审查CFTC基于原则的框架的应用,以确保其能够捕捉到人工智能在金融市场中带来的独特风险。两党众议院人工智能工作组xix保健保健人工智能技术有可能改善医疗保健研究、诊断和护理提供的多个方面。人工智能可以快速分析大型数据集,提高诊断准确性,简化操作并自动化日常任务,
34、所有这些都有可能提高治疗的效率和疗效,减轻医疗从业者的负担,为患者护理腾出更多时间。主要发现主要发现人工智能在医疗保健中的使用可能会减轻管理负担,加快药物开发和临床诊断。缺乏普遍、统一的医疗数据和算法标准阻碍了系统互操作性和数据共享。建议建议鼓励所需的实践,以确保医疗保健中的人工智能是安全、透明和有效的。为与人工智能相关的医疗保健研究提供强有力的支持。制定激励措施和指导,鼓励在各种部署条件下对医疗保健中的人工智能技术进行风险管理,以支持人工智能的采用,改善隐私,增强安全性,并防止不同的健康结果。支持制定与人工智能问题相关的责任标准。支持适当的支付机制,同时不扼杀创新。金融服务金融服务几十年来,
35、金融服务行业一直在使用人工智能技术。持续增长的理想环境将使人工智能创新蓬勃发展,同时保护消费者并保持市场完整性。通过专注于促进创新、增强客户体验和确保金融包容性,人工智能可以显著提高金融部门的效率和可及性。主要发现主要发现 人工智能为金融服务业的转型提供了机会。数据质量和数据安全在金融服务人工智能模型中至关重要。人工智能可以扩大对金融产品和服务的访问。人工智能技术已经部署在整个金融服务领域。一些监管机构使用人工智能来识别违规行为。小型金融服务公司在采用人工智能方面可能处于劣势。两党众议院人工智能工作组i建议建议营造一个金融服务公司可以负责任地采用人工智能技术的环境。鼓励和资源监管机构增加他们在
36、人工智能方面的专业知识。在金融服务和住房领域使用人工智能时,维护消费者和投资者的保护。考虑监管“沙盒”的优点,它可以让监管机构尝试人工智能应用。支持基于原则的监管方法,以适应快速的技术变革。确保法规不会阻碍小公司采用人工智能工具。背景背景联邦机构已经开始在各种用例中利用人工智能(AI)来授权现有的机构任务并简化程序。1斯坦福大学2020年2月的一份报告发现,“所研究的近一半的联邦机构已经尝试了人工智能和相关的机器学习工具。”2作为2020年签署的第13960号行政命令的一部分,特朗普政府指示联邦机构创建一份人工智能用例清单。3国务院、司法部和疾病控制与预防中心有几个突出的例子。4自2020年以
37、来,联邦政府继续增加更多的人工智能用例。美国政府问责局(GAO)2023年12月的一份报告发现,23个受访机构中有20个使用人工智能,总共报告了大约200个人工智能使用实例。AI.gov还公布了整个联邦政府的人工智能用例,包括一个供专业人士和学生加入国家人工智能人才激增的门户网站。两党众议院人工智能工作组ii1白宫。“人工智能用例”。AI.gov,https:/ai.gov/ai-use-cases/.2David Freeman等人,“算法政府:联邦行政机构中的人工智能”,斯坦福法律,2020年2月,3促进联邦政府使用值得信赖的人工智能。联邦公报,第85卷,第236期,2020年12月,4L
38、ewis Kamb,“一些美国政府机构正在测试人工智能,以帮助满足公共记录请求,”NBC新闻,2023年8月1日。https:/ 准确性 可靠性 稳健性 安全性和有效性 安全 隐私 透明度 可解释性和可解释性 通知和解释 人类的选择、考虑和回退 股权 减轻有害偏见虽然围绕人工智能治理原则的共识将为有意义地解决负责任的人工智能使用问题提供一个有用的起点,但各机构在制定实现这些原则所需的方法方面仍面临重大挑战。在人工智能生命周期中实施原则是一项具有挑战性和复杂性的任务。97大赦国际权利法案。白宫,https:/www.whitehouse.gov/ostp/ai-bill-of-rights/.8
39、个IT现代化卓越中心。政府人工智能指南:美国联邦政府人工智能应用的生动和不断发展的指南。美国总务管理局,https:/coe.gsa.gov/coe/ai-guide-for-government/evolving-principles-and-guidelines/index.html.9鲁清华,朱黎明,徐锡伟,Jon Whittle,Didar Zowghi和Aurelie Jacquet。负责任的人工智能模式目录:人工智能治理和工程最佳实践集。ACM计算机。当然。56,7,第173条。2024年7月,35页。https:/doi.org/10.1145/3626234.两党众议院人工智能
40、工作组iv为了应对这些挑战,多年来发布了特别指导,如政府问责局的联邦机构问责框架和总务管理局的政府人工智能指南。10,11虽然这些资源可以支持机构开发人工智能治理方法,但没有一种资源可以提供实施指导原则的整体方法。拜登政府发布了关于安全、可靠和值得信赖的人工智能开发和使用的第14110号行政命令,要求管理和预算办公室(OMB)成立一个跨部门委员会,协调和制定联邦机构人工智能使用、治理和风险管理的指导方针。作为回应,OMB于2024年3月28日发布了M-24-10,该文件“为人工智能治理、创新和风险管理制定了新的机构要求和指导,包括通过影响公众权利和安全的人工智能使用的具体最低风险管理实践。”1
41、2备忘录要求各机构更新任何现有的内部人工智能指导原则和指导方针,以确保与新的指导方针保持一致,并实施到2024年12月1日,执行命令的最低做法(可能延期),并停止在其运营中使用任何不符合规定的人工智能到该日期的最低实践。随着联邦政府继续实施关于联邦人工智能使用的各种法律、行政命令和指导,应在管理联邦信息系统、数据、网络安全和采购的现有政策的背景下考虑这些行动。10美国高。人工智能:联邦机构和其他实体的问责框架,美国政府问责局,2021年6月,https:/www.gao.gov/products/gao-21-519sp.11前8条。12注:不包括IC和DoD的元素。沙兰达杨。“推进人工智能机
42、构使用的治理、创新和风险管理。”白宫,https:/www.whitehouse.gov/wp-content/uploads/2024/03/M-24-10-Advancing-Governance-Innovation-and-Risk-Management-for-Agency-Use-of-Artificial-Intelligence.pdf.资料来源:美国政府问责局报告-人工智能:各机构已开始实施,但需要完成关键要求。两党众议院人工智能工作组v此外,联邦政府有工具和政策来支持采购更多的人工智能系统,最近的OMB指南提出了额外的人工智能采购要求。13为了减少任何潜在的冗余、模糊或相互
43、冲突的指导,制定涉及人工智能使用和采购的新政策应从分析和理解如何应用现有政策和程序开始。需要立法协调的解决方案和跨越人工智能生命周期的整体运营资源,以实现一致管理的政府人工智能系统。以下部分描述了可能记录的(非详尽的)信息,以实施负责任的人工智能原则,以及如何共享这些信息以实现透明度。联邦人工智能治理和透明度联邦人工智能治理和透明度随着各机构今天使用人工智能并确定未来的用例,国会应确保采取必要的保障措施来保护公众的隐私、安全、公民权利和公民自由。公众应该知道,联邦机构有成熟的政策来利用人工智能,同时防范基于算法的决策带来的风险,这些决策不恰当地依赖人工智能系统,而没有必要的治理和透明度政策来确
44、保正确有效的使用。围绕联邦机构使用人工智能的治理和透明度要求可以提供有关政府人工智能系统的重要信息,并用于向内部政府管理层、国会、公众和受人工智能知情输出影响的利益相关者提供信息。透明的报告要求是为未来的政策制定提供信息的众多工具之一,并提供所需的详细、可操作和及时的信息,以确保联邦机构始终负责任和有效地使用人工智能。14对于机构应记录和披露的信息的类型和广度,人们的看法各不相同,但它们可能包括:数据和元数据数据和元数据:有关用于训练、测试或微调模型的数据的信息,包括有关数据来源或出处、收集方法、样本大小、清理数据的程序、偏差和偏斜、包含受保护的特征或代理特征以及最终完整性的信息。13数字创新
45、联盟致联邦副首席信息官David A.Myklegard和管理与预算办公室联邦采购政策高级顾问ChristineJ.Harada的信2024年4月29日,https:/alliance4digitalinnovation.org/wp-content/uploads/2024/04/2024.04.29-ADI-Comments-on-Responsible-Procurement-of-Artificial-Intelligence-in-Government-RFI-Final.pdf.14Alex Engler,“人工智能监管工具箱:政府如何发现算法危害”,布鲁金斯学会,2023年。ht
46、tps:/www.brookings.edu/articles/the-ai-regulatory-toolbox-how-governments-can-discover-algorithmic-harms/.两党众议院人工智能工作组vi 软件软件:关于软件组件及其来源的信息。15 模型开发模型开发:有关人工智能系统的培训、调整、验证和测试的信息,谁要求开发,谁开发了模型,开发中咨询的社区,开发过程,开发中使用的工具,模型的预期用途和已知局限性,以及与模型的效率、性能、偏见和能源使用有关的指标。模型部署:模型部署:有关模型部署和监控的信息,包括模型开发中确定的指标,向受模型使用影响的公众提供
47、人工智能模型使用通知和解释的计划,以及任何正在进行的培训、验证和测试。模型使用模型使用:关于如何使用模型的信息,包括部署模型的整个系统的组织背景和设计、模型的具体用例应用、部署模型利用的信息、模型旨在告知的确定或决策类型、对模型及其结果的有意义的解释、如何处理输出的政策、确定的危害风险以及包括人为监督或干预在内的风险缓解计划。联邦机构可能很难在追求透明度与保护隐私、安全、专有信息和国家安全之间取得平衡,因此,透明度并不总是意味着向公众完全披露。16在这种情况下,透明度可能依赖于有关数据收集和测试方法的文件,而不是对基础测试数据的访问。17报告和透明度政策的设计应使不同的内部政府职能得到适当的治
48、理,例如使情报界内部的监督职能、统计信息的受控共享或国会对行政部门机构的监督作用成为可能。人工智能系统联邦标准人工智能系统联邦标准虽然美国政府在制定与信息技术(IT)相关的国际标准方面主要发挥着支持作用,但联邦政府确实为政府系统制定了自己的标准。这些标准通常基于或符合国际共识标准。15国家电信和信息管理局。国家电信和信息管理局商务部“软件物料清单”,https:/www.ntia.gov/page/software-bill-materials.16Olsen、Henrik Palmer等人,“公共治理透明度的权利:信息自由和公共机构使用人工智能”,数字政府:研究与实践,第5卷,第1期,202
49、4年3月12日,第1-15页,17同上。1995年,国会签署了国家技术转让和进步法案(NTTAA)18,以指导联邦机构的标准制定活动。NTTAA指示联邦机构尽可能采用自愿共识标准,以避免重复工作。它还使联邦机构负责通过合格评定活动评估采用标准的有效性。在支持或采用标准时,每个机构必须与其他相关机构和私营部门协调其活动。为了向各机构提供实施非关税壁垒法案的指导,行政管理和预算局发布了行政管理和行政管理局通告A-119(“联邦参与自愿共识标准的制定和使用以及合格评定活动”)。美国国家标准与技术研究院(NIST)负责根据2002年电子政务法案(P.L.107-347)19和联邦信息安全现代化法案(P
50、.L.113-283)20颁布广泛支撑联邦计算机系统的标准,称为联邦信息处理标准(FIPS)两党众议院人工智能工作组vii在颁布这些标准时,NIST必须确保FIPS尽可能遵守自愿共识标准,以避免根据NTTAA重复工作。OMB是负责监督和协调联邦信息管理(包括IT管理)的机构。国会已指示OMB制定和监督机构IT政策和实践,包括领导政府在全国范围内实施NIST颁布的标准,并执行与这些标准一致的机构政策。在OMB发布政策和指导的同时,NIST继续通过根据需要向其他机构提供技术支持来支持这些标准的实施。网络安全和基础设施安全局在帮助促进政府IT系统实施网络安全标准方面也发挥着重要作用。针对人工智能,政
51、府中的人工智能法案(P.L.116-260)21要求行政管理和预算办公室就机构使用人工智能和机构人工智能治理计划发布全政府指导。18联邦公报办公室、国家档案和记录管理局。第107-347号公法2002年电子政务法。美国政府印刷局,2002年12月16日,https:/www.govinfo.gov/app/details/PLAW-107publ347.19同上。20联邦公报办公室、国家档案和记录管理局。公法113-283-2014年联邦信息安全现代化法案。美国政府出版办公室,2014年12月17日,https:/www.govinfo.gov/app/details/PLAW-113publ
52、283.21联邦公报办公室、国家档案和记录管理局。第116-260号公法2021年综合拨款法。美国政府出版办公室,2020年12月26日,两党众议院人工智能工作组viii此外,推进美国人工智能法案(P.L.117-263)22要求特定的联邦机构采取措施,促进负责任的人工智能获取和使用,同时保护隐私、公民权利和公民自由。例如,国土安全部(DHS)必须为国土安全部发布与人工智能的获取和使用有关的政策和程序,并考虑人工智能系统的风险和后果。推进美国人工智能法案还指示OMB要求联邦机构准备、维护和公开其当前和计划中的人工智能用例清单。在国家人工智能倡议法案(P.L.116-283)中,23国会指示NI
53、ST支持人工智能标准,并通过与公共和私营部门的利益相关者合作,制定自愿的人工智能风险管理框架。2021年7月,NIST发起了一项信息请求,以开发一个框架,更好地管理人工智能对个人、组织和社会的风险。在与公共和私营部门合作伙伴进行了大量合作后,NIST于2023年1月26日发布了其人工智能风险管理框架和随附材料,以帮助指导人工智能的安全和负责任的开发和使用。24然而,该框架的第一次迭代只是通过引导读者批判性地思考人工智能系统的背景、测量和管理,为识别和减轻人工智能风险设定了理论基线,因此它不是一份标准文件。正如在“研究、开发和标准研究、开发和标准”一章章中所讨论的那样,人工智能相关标准严重不发达
54、。这包括联邦系统的标准。AIAI赋能基础设施赋能基础设施有效的公共部门人工智能系统治理必须在人工智能系统的整个生命周期内进行管理。对支持人工智能系统的联邦IT和数据保持健全的政策,将使机构最终使用的人工智能得到更好的治理,特别是那些专注于维护高质量数据、确保数据治理和培养公共部门员工技术能力的政策。2522联邦公报办公室、国家档案和记录管理局。公法117-263-2023财年詹姆斯M英霍夫国防授权法案。美国政府出版办公室,2022年12月22日,https:/www.govinfo.gov/app/details/PLAW-117publ263.23联邦公报办公室、国家档案和记录管理局。公法1
55、16-283-2021财年威廉M(Mac)桑伯里国防授权法案。美国政府出版办公室,2020年12月31日,24美国国家标准与技术研究所,人工智能风险管理框架,2024年,25D OToole,K.,C.Turbes和A.Freeman,人工智能时代的数据政策:人工智能数据使用指南,数据基金会,2024年8月28日,https:/datafoundation.org/news/ai/301/301-Data-Policy-in-the-Age-of-AI-A-guide-to-using-Data-for-Artificial-Intelligence.两党众议院人工智能工作组ix一些联邦法律已
56、经为有效的数据治理政策奠定了基础,包括2018年的循证决策法基础(P.L.115-435)26和1974年的隐私法(P.L.93-579)27(下文将更详细地讨论)。实现负责任地使用人工智能需要消除开发安全有效的人工智能系统的障碍。各机构应采取措施,消除负责任使用人工智能的障碍,同时考虑以下因素。联邦信息系统的现代化联邦信息系统的现代化每年,联邦政府在信息技术和网络安全方面的支出超过1000亿美元。28其中约80%的支出用于运营现有的遗留系统,这些系统通常已经过时,并以过时的软件和硬件组件为基础。29这些遗留系统造成了安全和运营风险,在发生事故时进行维护和补救的成本很高。30解决这个问题并使传
57、统IT现代化将需要大量资源。这些项目可能需要数年时间,需要大量的前期财务投资,并依赖于在传统和当代技术方面经验丰富的工程师的技术专长。资料来源:美国政府问责局-信息技术:各机构需要制定和实施关键遗留系统的现代化计划通过适当的监督和问责保障措施,联邦政府可能能够利用人工智能采取措施,实现传统联邦IT的现代化,包括“将传统软件自动化迁移到更灵活的基于云的应用程序,或加快大型机应用程序的现代化。”3126联邦公报办公室、国家档案和记录管理局。公法115-435-2018年循证决策法的基础。美国政府出版办公室,2019年1月13日,https:/www.govinfo.gov/app/details/
58、PLAW-115publ435.27联邦公报办公室、国家档案和记录管理局。第93-579号公法1974年隐私法,美国政府出版局,1974年12月21日,美国政府问责局28号。,GAO-21-524T,“各机构需要制定和实施关键遗留系统的现代化计划”,美国政府问责局,2021年4月27日,29同上。30Id。31Florian Breger和Cristina Caballe-Fuguet,“人工智能和生成人工智能能为政府做什么”,IBM,2024年。https:/ Bafundo,“TMF如何帮助机构利用人工智能”,总务管理局,2024年7月10日,https:/www.gsa.gov/blog
59、/2024/07/10/how-tmf-is-helping-agencies-harness-artificial-intelligence.34FNMedia Group LLC.网络安全中的人工智能(AI)如何为科技行业创造十亿美元的收入机会。环球通讯社,2024年9月16日两党众议院人工智能工作组xi人工智能在识别、缓解和应对威胁行为者和网络安全事件方面已经发挥着越来越大的作用。35这主要是由于人工智能能够快速处理大型数据集、检测微妙模式和适应新威胁,从而产生“强大的效率和持续学习,补充了人类的能力”,并起到了力量倍增器的作用。36第14110号行政命令指示国土安全部采取多项行动,以提
60、高安全性、弹性和对关键基础设施的人工智能相关网络安全威胁的事件响应。37它还指示了一项人工智能网络安全挑战,以开发人工智能工具来发现和修复关键软件中的漏洞。38国土安全部网络安全和基础设施安全局还发布了一份人工智能路线图,该路线图“侧重于人工智能、网络防御和关键基础设施的联系,提出了一项全机构计划,以促进人工智能的有益使用,增强网络安全能力;确保人工智能系统免受网络威胁;并阻止恶意使用人工智能能力来威胁美国人依赖的关键基础设施。”39虽然人工智能系统提供了增强网络安全防御和漏洞检测的前景,但我们还不知道这些工具的有效性。例如,模糊测试工具长期以来一直被用来发现软件中的漏洞,40人工智能系统已经
61、证明了扩大这些工具覆盖范围的能力。41因此,一些网络安全挑战可能会给针对联邦IT系统的不对称攻击带来重大利益,而另一些挑战可能会支持更好地防御这些系统。42需要更多的研究和测试来更好地理解和减轻这些风险,同时促进人工智能防御。35Nikki Henderson,“联邦政府权衡生成性人工智能在网络安全、数据分析中的应用。”政府首席信息官媒体,2024年8月6日,https:/ officials%20 see%20 generative%20AI,information%20 for%20 drive%20 better%20decisions。36Lucia Stanham,“人工智能在网络安
62、全中的作用”。CrowdStrike,2024年5月10日,https:/ 安全模 糊化。Artech House出版 社,2018年,https:/ Petersen等人,国家网络安全教育倡议(NICE)网络安全劳动力框架(SP 800-181修订版1)。美国国家标准与技术研究所,2020年11月,https:/nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.800-181r1.pdf.64人工智能服务计划奖学金:需求、可行性和实施。美国国家科学基金会,2024,https:/www.nsf.gov/edu/Pubs/2024SFS
63、AIReport.pdf.招聘政府人工智能工作人员招聘政府人工智能工作人员人工智能行业的职位与联邦政府的职位有着显著不同的招聘途径。例如,虽然该行业可能会改变其招聘方式和激励措施,暂时增加对人工智能工人的招聘,但联邦机构在招聘方面的类似灵活性需要获得批准。这些灵活性可能包括特殊费率、关键薪酬、豁免招聘、搬迁、留用或激励薪酬限制、教育要求以及改变职位头衔或描述以吸引合适的人才。两党众议院人工智能工作组xviiOPM为机构提供了一系列工具,可以更灵活地招聘、雇佣和留住具有宝贵人工智能相关技能的候选人。例如,2022年5月,人事管理局发布了指导方针,鼓励各机构专注于基于技能的招聘,这将通过根据候选人
64、的技能而不是严格依赖大学学位等技能代理来评估候选人,从而拓宽所有美国人的招聘途径。652024年,OPM还发布了备忘录,支持人工智能员工的薪酬灵活性、激励性薪酬、休假和劳动力灵活性计划,并发布了基于技能的招聘和人工智能工作能力的指导。66继续应对联邦机构在招聘人工智能从业者方面的挑战对于保持强大的联邦人工智能劳动力至关重要。虽然OPM为各机构制定并发布了更有效地雇佣人工智能和人工智能技术人员担任新角色的指导方针,但现有的技术人员招聘途径迅速转向支持第14110号行政命令中启动的人工智能人才激增。美国数字服务(USDS)是总统执行办公室内的一个团队,由200多名高级技术人员组成,帮助各机构建立面
65、向公众的关键政府服务。自宣布激增以来,该团队已收到3000多份新申请,并聘请了30多名人工智能和人工智能支持专家。67此外,GSA的总统创新研究员(PIF)和美国数字军团(USDC)项目在联邦机构招募和安置高级和早期职业技术人才,收到了2500多份人工智能和人工智能支持职位的申请。2024年,这些项目共聘请了50多名专注于人工智能的研究员。6865人事管理办公室,“新闻稿:人事管理办公室发布基于技能的招聘指南”,2022年5月19日,https:/www.opm.gov/news/releases/2022/05/release-opm-releases-skills-based-hiring
66、-guidance/.66人事管理办公室,“新闻稿:ICYIMI:OPM强调支持人工智能人才激增的关键行动,以招聘和雇佣人工智能专业人员”,https:/www.opm.gov/news/releases/2024/05/opm-highlights-key-actions-supporting-ai-talent-surge-to-recruit-and-hire-ai-professionals/.67人工智能和技术人才工作组,“提高联邦政府的人工智能能力”,2024年4月,68同上。;另见:美国总务管理局,“总统创新研究员推出了第一批专门研究人工智能的人员”,2024年6月17日,htt
67、ps:/www.gsa.gov/about-us/newsroom/news-releases/presidential-innovation-fellows-launches-first-cohort-focused-exclusively-on-artificial-intelligence-06172024.另见:美国总务管理局,“GSA宣布新一批美国数字军团研究员”,2024年8月13日,https:/www.gsa.gov/about-us/newsroom/news-releases/gsa-announces-new-cohort-of-us-digital-corps-fell
68、ows-08132024.两党众议院人工智能工作组xviii主要发现主要发现联邦政府应利用核心原则,避免与现行法律相冲突。联邦政府应利用核心原则,避免与现行法律相冲突。管理联邦政府使用人工智能的政策应与一套集中的核心原则保持一致,以确保各机构在如何处理和使用人工智能方面的协调一致。实施这些原则的指导应建立在现有法律和既定的数据和信息记录、联邦信息技术系统和网络安全、采购和采购、劳动力管理以及绩效和问责制的政策要求之上。然而,各机构应具有灵活性,以制定符合核心原则的、最能满足其需求的人工智能使用政策。人工智能治理还应与人工智能系统或用例的复杂性和风险状况相称。例如,简单的流程自动化和工作流工具不
69、应要求与访问敏感公共部门数据集的大型语言模型相同级别的系统治理控制。此外,管理机构使用人工智能的政策应提供跨越人工智能生命周期的全面、以运营为重点的指导,以实现高效的机构实施。人工智能系统可以为任务或程序特定的用例提供多个应用程序。政府范围内管理机构使用人工智能的政策应在管理联邦机构数据和IT系统的现有联邦信息政策要求的背景下进行设计,例如既定的隐私和网络安全政策。机构应确定对特定人工智能用例的必要限制,符合适用和现有的法律和监管要求,以及适当的风险考虑水平。联邦政府应该警惕基于算法的决策。联邦政府应该警惕基于算法的决策。政策制定者应该对联邦政府内部“基于算法”的决策持谨慎态度。相反,政府应该
70、追求“基于算法的”决策支持任务和项目。算法知情决策需要对人工智能系统进行适当的治理,并进行深思熟虑的政策设计,以考虑人工智能系统在某些用例中的固有局限性。国会和机构应该考虑跨用例的基于算法的决策所需的人类参与程度。两党众议院人工智能工作组xix联邦政府应公开通知人工智能在政府职能中的作用。联邦政府应公开通知人工智能在政府职能中的作用。由于人工智能的实施是为了支持联邦机构的工作流程并为决策提供信息,因此向受到机构决定或裁定实质性和有意义影响的个人和实体提供有关人工智能参与的适当通知以及上诉和人工审查的适当追索权至关重要。各机构应关注人工智能系统的基础。各机构应关注人工智能系统的基础。推动采用AI
71、技术的国会和联邦机构在采用AI技术时应注意网络安全、隐私以及数据和IT基础设施需求。采用基本原理对于确保负责任地采用和使用联邦人工智能技术至关重要。联邦劳动力的角色和相关的人工智能知识和技能不明确,差异很大。联邦劳动力的角色和相关的人工智能知识和技能不明确,差异很大。了解联邦劳动力中所需的人工智能角色将需要一个标准的人工智能分类或劳动力框架。目前,由于人工智能相关角色的性质不断变化和定义不标准,很难对其进行跟踪。这也导致了招聘和聘用具有与相关职位相匹配的技能的人工智能从业者的挑战。定义联邦政府中以人工智能为重点的角色所需的知识和技能至关重要。标准的分类法或劳动力框架可以使人工智能培训计划更好地
72、与劳动力需求相一致,为联邦政府提供更一致的招聘途径,并改善对联邦政府人工智能技能供需的分析。基于技能的招聘对于满足联邦劳动力对人工智能人才的需求至关重要。基于技能的招聘对于满足联邦劳动力对人工智能人才的需求至关重要。满足美国劳动力的人工智能培训需求将需要开发和建立一个管道,通过追求“上述所有”的方法来满足公共部门的需求。网络安全等技术领域的培训和认证越来越多地通过新兵训练营和证书课程等非传统途径进行,而对传统学位的依赖程度较低。同样,许多人工智能工作岗位可能会由那些通过非传统教育途径接受培训或提高技能的人来填补。来自非传统教育背景的候选人可以满足日益增长的人工智能工作需求,确保正确的招聘途径和
73、政策(如OPM 2022年5月关于基于技能的招聘的指导)到位至关重要。6969前65条。两党众议院人工智能工作组xx建议建议建议:在联邦政府使用人工智能时,采取信息和系统层面的方法。建议:在联邦政府使用人工智能时,采取信息和系统层面的方法。在制定政府使用人工智能的新法律时,国会应考虑与联邦信息政策、信息安全和网络安全、公共部门数据管理和隐私以及采购有关的现有联邦法律。可能需要采用现有的法律和政策来解决联邦政府使用人工智能引起的新问题。不符合这些政策领域现有信息系统级要求的人工智能政策将存在于联邦信息系统的当前管理结构之外,并可能导致混乱、效率低下、行政或行业负担过重,最终导致法律或政策要求重叠
74、或相互竞争。例如,管理联邦机构使用人工智能的立法应建立在管理联邦信息政策和安全(美国法典第44篇第35章)或信息技术获取(美国联邦法典第40篇第113章)的现有法律领域之上。必要时,应废除或统一重复或冲突的要求和定义。此外,在处理有关收集私营部门信息或处理公众数据的政策决定时,此类政策应分别在1967年信息自由法(FOIA)(5 U.s.C.552)或1974年隐私法(5U.s.C.552a)等既定法律的背景下制定。最后,应考虑这种政策方法,以适当平衡和协调首席人工智能官的新兴角色与现有的联邦机构首席信息官、首席数据官、首席采购官、首席隐私官等,他们在各自的政策领域保持着既定的角色。建议:支持
75、人工智能的灵活治理。建议:支持人工智能的灵活治理。人工智能将继续快速发展。有关政府使用人工智能的指导必须足够灵活,以适应新的进步。所有新的法律和政策都应遵守核心原则,优先提供资源,支持各机构有效实施不断发展的标准的持续能力,在政府和机构内部建立明确的权力机构,就未来的人工智能使用做出决定,并促进相关决策者之间的沟通,以确保在可行的情况下实现协调。两党众议院人工智能工作组xxi建议:使用人工智能减少行政负担和官僚主义。建议:使用人工智能减少行政负担和官僚主义。与私营企业一样,联邦政府可以通过利用人工智能使传统IT系统和过时的流程现代化来实现巨大的效率提升。拥有结构良好、高质量数据的政府职能部门可
76、能会率先实现采用人工智能所承诺的生产力提升。这些职能领域可能包括地理空间分析、财务管理和会计、监管合规和采购工作流程所有这些领域都有既定和受控的工作流程和相关数据管理标准。国会应鼓励各机构优先在具有必要的开放和结构化数据(即可访问、可解释、可控和可解释的数据)的功能领域内采用人工智能,以使人工智能的应用最为成功。此外,国会应向各机构提供足够的资源,投资于符合适用法律的数据管理策略,使更多职能部门能够拥有必要的数据,以促进人工智能系统的适当和准确使用。建议:要求各机构通报人工智能在政府职能中的作用。建议:要求各机构通报人工智能在政府职能中的作用。在考虑政府使用人工智能的立法时,国会应要求机构政策
77、包括对受联邦机构决定影响的个人或实体的明文通知和上诉程序,这些决定得到了人工智能系统的实质性和有意义的增强。此类政策可以根据有关保护和处理机构控制的个人身份信息(PII)记录的现有法定要求(1974年隐私法(5 U.S.C.552a)制定,并要求在联邦财政援助和公共利益裁决、监管执法和分析以及公众参与和服务提供方面,对机构的决定进行替代性、独立的人工审查。建议:促进并采用人工智能标准供联邦政府使用。建议:促进并采用人工智能标准供联邦政府使用。国会应为联邦机构提供资源,通过参与这些标准活动并在可行的情况下采用共识标准,参与和支持与其任务相关的人工智能相关标准的国际标准制定,如NTTAA和OMB通
78、告A-119所述。NIST应继续确保其颁布的联邦系统标准与国际标准保持一致。建议:支持建议:支持NISTNIST为联邦人工智能系统制定指导方针。为联邦人工智能系统制定指导方针。国会应支持NIST为采用人工智能系统的联邦机构制定额外的自愿指导和资源,并颁布与其制定和应用联邦计算系统的联邦信息处理标准(FIPS)的权力相一致的人工智能相关标准。例如,NIST应考虑为特定的联邦系统制定人工智能风险管理框架的风险简介。这些标准应遵循现有的联邦程序,并在可行的最大范围内与国际标准保持一致。建议:改善联邦系统的网络安全,包括联邦人工智能系统。建议:改善联邦系统的网络安全,包括联邦人工智能系统。随着政府采用
79、人工智能系统,网络安全将继续成为联邦信息系统的一个关键政策领域。联邦机构应探索漏洞赏金计划70,使白帽黑客能够发现和报告联邦系统(包括人工智能系统)中的漏洞。在某些情况下,人工智能甚至可能有助于改善联邦安全。国会应审查立法,要求OMB就各机构使用人工智能来改善信息系统的网络安全发布指导。两党众议院人工智能工作组xxii建议:鼓励支持人工智能发展的数据治理策略。建议:鼓励支持人工智能发展的数据治理策略。获取联邦数据将促进人工智能创新,并促进美国在人工智能领域的持续领导地位。为了实现这一目标,各机构的政策必须符合适用和现有的法律和监管要求。国会应继续支持公众获取联邦数据,包括统计数据。国会应调查支
80、持OMB实施2018年循证决策法案的机会,并扩大人工智能开发的数据获取。例如,国会可以探索如何支持联邦机构建立人工智能就绪的数据存储库,确保标准化的文档和格式,并遵守适用的法律。此外,根据CHIPS和科学法案授权的国家安全数据服务试点项目的结果,国会应探索立法以支持该服务的全面实施。最后,国会应探索立法,支持在不同用例中开发和演示隐私增强技术。70一种补偿个人报告可能允许安全利用或漏洞的软件错误、缺陷或故障(“bug”)的方法。参见:KimSchaffer等人,“联邦漏洞披露指南建议”。国家标准与技术研究所,2023年5月,https:/nvlpubs.nist.gov/nistpubs/Sp
81、ecialPublications/NIST.SP.800-216.pdf.两党众议院人工智能工作组xxiii建议:国会和政府必须了解联邦政府的人工智能劳动力需求。建议:国会和政府必须了解联邦政府的人工智能劳动力需求。随着各机构根据政府人工智能法案实施人事管理局的人工智能分类政策和人才招聘指南,国会应随时了解其进展,并确保人事管理局了解并满足机构人工智能劳动力的需求。71为了提高对网络安全角色的技能和能力的理解,国会通过了2014年的网络安全增强法案(P.L.113-274),随后通过了2020年的黑客行为法(P.L.116-283,作为2021财年威廉M桑伯里国防授权法案的一部分)。在其他网
82、络安全教育相关活动中,这些法案指示NIST创建和更新网络安全劳动力框架,帮助创建标准化的工作类别、角色、任务和能力领域。72科学、空间和技术委员会应探索立法,以提高对人工智能相关角色的理解和标准化,特别是那些专注于人工智能治理的角色,包括支持联邦政府的职业道路。建议:支持人工智能人才通过不同途径进入联邦服务。建议:支持人工智能人才通过不同途径进入联邦服务。国会应研究如何激励人工智能工作者加入联邦劳动力队伍,包括支持网络兵团服务奖学金计划,创建人工智能服务奖学金计划以及继续支持联邦机构中人工智能角色的发展。71前60条。72国家网络安全职业和研究倡议(NICCS):NICE框架。网络安全和基础设
83、施安全局,2024年3月,https:/niccs.cisa.gov/workforce-development/nice-framework.两党众议院人工智能工作组xxiii背景背景优先购买权影响联邦政府和各州之间的权力分配。联邦-州优先购买权起源于美国宪法的最高条款:第六条第2.1款最高条款规定,宪法、根据宪法制定的联邦法律和根据宪法授权制定的条约共同构成国家的最高法律。因此,联邦法律优先于任何相互冲突的州法律。联邦立法优先于州人工智能法律是国会可以用来实现各种目标的工具。然而,联邦优先购买权提出了应该考虑的复杂的法律和政策问题。优先购买权中的法律问题优先购买权中的法律问题由于优先购买权
84、划定了联邦当局取代州立法的界限,因此需要进行法律分析,以了解优先购买权生效的情况以及州法律被取代的程度。必要的法律分析可能涉及对联邦立法中具体文本的考虑、国会的意图以及适用的联邦和州监管制度之间的相互作用。1“本宪法以及为执行本宪法而制定的美国法律;以及在美国权力下制定或将制定的所有条约,应为美国的最高法律;各州的法官应受其约束,尽管任何州的宪法或法律中有任何相反的规定。”美国宪法:抄本。国家档案馆,www.Archives.gov/founding-docs/constitution-recript。两党众议院人工智能工作组xxiv许多法院判决决定了联邦法律如何优先于州法律以及优先权适用的情
85、况。围绕联邦-州优先购买权的其他法律问题涉及联邦政府和州政府之间的权力平衡,以及不同级别政府之间可能出现的潜在冲突和不一致。优先购买权的适用性联邦法规规定的优先购买权可以是明示的,也可以是默示的。当国会行使其宪法权力在特定领域进行监管时,它可以在立法中明确表示,它是否打算让联邦法律优先于或凌驾于州法律之上。此外,即使立法没有明确说明其优先权的意图,立法的结构和目的或法院对法律的解释也可能暗示联邦优先权。联邦法律凌驾于州法律之上有多种形式。根据不可能优先权原则,如果不可能同时遵守联邦和州法律,联邦法律将优先于冲突的州法律规定。2同样,障碍优先权优先于任何可能阻碍联邦立法目标的州法律。资料来源:国
86、会研究服务部-联邦优先购买权:法律入门2Jay Sykes和Nicole Vanatko,国会研究服务部,“联邦优先购买权:法律入门”,国会研究服,2019年7月23日,https:/crsreports.congress.gov/product/pdf/R/R45825/1.两党众议院人工智能工作组xxvi优先购买权的范围受立法约束的领域在多大程度上被州法律所取代尚不清楚。当联邦立法没有明确规定优先购买权时,优先购买权的确切范围尤其模糊。当联邦法规中没有明确的优先购买权条款时,法院必须确定国会是否打算隐含地优先于州法律。确定联邦优先购买权的范围和解决联邦和州法律之间的冲突在法律上可能是复杂而
87、耗时的,需要解释许多法规、条例和法院判决。此外,国会或州立法机构在明确优先购买权的情况下选择的语言可能会使优先购买的程度不明确。例如,法院一直在努力解释诸如州法律“与”或“涵盖”某些主题或优先于州“要求”与“法律”等短语最后,人工智能没有普遍的法律定义。3如果国会选择优先于州人工智能法律,那么优先立法应该以代表优先权预期范围的方式准确定义人工智能。监管权一个重要问题是确定哪个级别的政府有权监管立法所代表的特定领域。宪法列举了国会立法的领域,第十修正案将未授予联邦政府的权力保留给各州或人民。当联邦和州政府在同一问题上都主张自己的权力时,可能会引发管辖权冲突和法律纠纷,需要根据适用的法律先例进行司
88、法解决。优先购买权中的政策问题优先购买权中的政策问题围绕联邦-州优先权的突出政策问题围绕着国会的目标以及为实现这些目标而采取的具体立法方法。3见人工智能定义挑战附录均匀性联邦优先购买权可以促进全国法律法规的统一。统一性可以使在多个州经营的企业和个人受益,因为它建立了一种一致的合规方法。如果没有统一的方法,不同的州可能会采用不同的、模糊的、甚至相互冲突的监管要求,这些要求由不同的州机构执行。这种脱节的系统可能会造成全国各地的企业难以遵守的障碍,因为他们被迫与众多州立法者和机构接触。即使没有颁布适用的州法律,统一的好处也可以适用。例如,几个相互冲突的州法规的可能性可能会阻止企业进行可能被后来的法规
89、淘汰的投资。两党众议院人工智能工作组xxvii灵活性和定制联邦优先购买权的一个缺点是其国家适用性。国家法规可能是为了应对杨树的不同需求和偏好而制定的。联邦先发制人的统一性可能会限制一个州根据其民众的政治意愿制定法律的能力。允许各州在联邦标准之外就特定主题制定立法,也可以灵活应对不断变化或不可预见的情况。国家实验当关于不同监管方法的相对优势、劣势和成本的全面信息未知或不清楚时,可以通过允许不同州采用不同的方法来获取。这些州级“实验”可以比联邦政府循环一系列不同的监管方法更快地提供这些信息。然而,州级实验可能是繁重的、昂贵的,或者发生得不够快。相关专业知识信息在制定知情和全面的政策方面很有价值。由
90、于各自的专业水平,联邦或州政府可能更有能力理解监管一个领域的后果。联邦机构可能拥有各州所缺乏的经验和资源。例如,各州缺乏国防部在国家安全问题上的专业知识。相反,由于在该州的长期经验或相关行业存在,州政府可能会得到更好的信息。学习期间暂停解决信息稀缺的另一种方法是联邦政府颁布一项暂停令,禁止州活动,直到在学习期间获得必要的信息。学习期并非没有风险,在某些情况下,学习期已经无限期延长,实际上成为联邦对适用领域的优先权。两党众议院人工智能工作组xxviii根据国家规定建立地板和天花板联邦优先购买权可以建立允许某些州监管的下限和上限。联邦法律可以通过要求各州必须达到的最低标准和基线保护来设定“最低标准
91、”,同时允许各州选择超过这些最低标准。这确保了所有州都符合基本标准,同时允许灵活采用更严格的法规。健康保险流通与责任法案(HIPAA)是规定最低限额的立法的一个例子。4联邦立法同样可以通过阻止各州实施比联邦法律规定的更严格的要求来设定“上限”。实施监管上限的立法的一个例子是E-SIGN法案,5该法案为所有数字签名制定了标准,或欧洲的通用数据保护条例(GDPR)。6虽然E-SIGN法案等立法规定了国会对如何监管某一领域的愿景,但即使国会不监管该领域,联邦立法也可以设定上限。联邦立法只能优先于特定类型的州法规,而不提供任何附带的法规(例如,在学习期暂停期间)。执行权优先于各州制定自己法律的联邦法律
92、仍可能允许这些州的总检察长(AG)执行联邦法律中的规定。例如,儿童在线隐私保护法(COPPA)优先于州和地方政府通过法律,为该法案规定的活动增加额外责任。然而,COPPA使州AG能够根据其管辖范围内的COPPA规则寻求损害赔偿或其他救济。7联邦政府对互联网技术的优先购买权联邦政府对互联网技术的优先购买权考虑一下联邦政府抢占另一项重要技术互联网的历史可能会有所帮助。联邦通信委员会(FCC)试图在其管辖范围内优先于州宽带法律,以控制州际通信。然而,这种优先购买权的确切界限仍在积极诉讼中。4联邦公报办公室、国家档案和记录管理局。第104-191号公法1996年健康保险流通与责任法案。美国政府印刷局,
93、1996年8月20日,https:/www.govinfo.gov/app/details/PLAW-104publ191.5美国众议院。美国法典第15篇:商业和贸易,第96章知识产权保护,Govinfo,uscode.house.gov/view.xhtml?路径=/prelimtitle15/第96章&版本=序言。6“通用数据保护法规信息门户”。GDPR-Info.eu,https:/gdpr-info.eu/.7美国众议院。美国法典第15篇:商业和贸易,第91章:隐私保护。政府信息,https:/uscode.house.gov/view.xhtml?path=/prelim标题15/第
94、91章&版本=序言。两党众议院人工智能工作组xxix美国联邦通信委员会(FCC)一直在努力解决其权力范围,以根据联邦法律对宽带互联网接入服务的分类,优先于有关此类服务的州法律。当这些服务根据通信法第I篇被归类为监管较轻的“信息服务”时,8联邦通信委员会认为,这允许联邦优先于可能实施更严格监管的州法律。然而,不确定性依然存在。例如,在Mozilla诉FCC9案中,华盛顿特区巡回法院等法院质疑第一篇分类是否为优先于州网络中立性法律提供了足够的法定依据。此外,联邦通信委员会还试图优先于限制市政宽带网络的州法律。电信法第253条禁止可能限制任何实体提供“电信服务”能力的州法律。在尼克松诉密苏里州市政联
95、盟案中,10最高法院狭义地解释了第253条,认为它并不优先于限制市政当局直接向消费者提供宽带服务的州法律。最后,美国联邦通信委员会试图通过抢先实施被视为禁止性的州和地方法规来加快5G无线基础设施的部署。2018年,美国联邦通信委员会限制了地方政府对小型基站部署收取的费用,并对批准实施了“打卡钟”,所有这些都优先于其法定权力下对州际服务的冲突州法律。11,12美国法典第8章第47节第1-646条。美国众议院。美国法典第47篇:通信https:/uscode.house.gov/view.xhtml?path=/prelimtitle47&版本=预印本9Mozilla公司诉联邦通信委员会,联邦地区
96、法院判例汇编第940卷第3期第1页(哥伦比亚特区巡回法庭,2019年)。10尼克松诉密苏里州市政联盟案,美国最高法院判例汇编第541卷第125页(2004年)。11Chris Linebaugh,美国国会研究服务部。“联邦通信委员会关于小蜂窝选址的5G命令的法律挑战概述”,2019年2月,https:/crsreports.congress.gov/product/pdf/LSB/LSB10265.12美国诉Vasquez Alvarez案,第九巡回法院(2020年)。两党众议院人工智能工作组xxx主要发现主要发现联邦政府在人工智能问题上优先于州法律是复杂的。联邦政府在人工智能问题上优先于州法
97、律是复杂的。优先购买权引发了许多法律和政策问题,应该加以考虑和解决,以便国会有效地实施其既定政策。部署人工智能的环境对其治理至关重要。人工智能系统的功能目的、开发方式、部署方式以及与之交互的人员都将影响政府为尽量减少危害而制定的规章制度。一个部门使用的普遍适用的基础模型可能需要与另一个部门部署的相同系统不同的法规。因此,国会在考虑任何针对人工智能或相关技术的法律中的优先权时,将需要权衡许多不同的因素。联邦优先购买权有利有弊。联邦优先购买权有利有弊。联邦对州法律的优先权可以带来统一性和清晰度,减轻合规负担,并以其他方式实现国会的政策目标。然而,州级监管具有灵活性、针对不同州人口进行定制、维护国家
98、权威以及提供与政策选择相关信息的实验等优点。优先购买权可以允许州政府采取行动,但须遵守最低或最高限额。优先购买权可以允许州政府采取行动,但须遵守最低或最高限额。联邦优先购买权可以允许各州通过符合联邦最低标准或不超过联邦最高标准的法律。这种优先购买权可以在同一地区建立或不建立相应的联邦监管制度。优先购买权可以是多方面的。优先购买权可以是多方面的。对国家人工智能监管的优先权可能是多方面的。例如,联邦政府可以先发制人,但不能先发制人,对一个域名进行某些类型的州监管。同样,联邦政府可以明确允许对某个域名进行某些类型的州监管,但不能允许其他类型的州管理。定义必须符合目的。定义必须符合目的。人工智能没有通
99、用的定义,偶尔被视为许多行业中存在的通用技术类别。对所涵盖的“人工智能”的定义过于宽泛或过于狭隘,可能会将高风险系统排除在监管之外,或者意外地引入电子表格和拼写检查器等常见技术。如果国会选择优先于州人工智能法律,那么优先立法应该准确地定义人工智能,以代表优先权的预期范围。两党众议院人工智能工作组xxxi建议建议建议:研究跨部门适用的人工智能法规。建议:研究跨部门适用的人工智能法规。为了更好地了解法律对这项通用技术的影响,国会应委托进行一项研究,分析影响各部门人工智能系统开发和使用的适用联邦和州法规和法律。这样的研究应该分析哪些现有的法律、立法和行政政策是技术中立的,但涵盖了人工智能系统。此外,
100、这样的研究可以帮助政策制定者更好地理解现有的法规和先发制人的规定。背景背景随着人工智能系统积累和分析大量数据,未经授权访问私人信息的风险越来越大。训练算法识别数据中的模式,并生成一组指令或一个可用于新数据的模型。1人工智能模型通常在各种数据集上进行训练,这些数据集包括书籍、网站和其他数字来源的文本,其中一些可能包含个人或敏感信息。人工智能系统也可以部署在依赖敏感数据的敏感环境中,包括医疗保健环境。当用户与某些人工智能系统交互时,尤其是生成式人工智能系统,他们可能会无意中泄露人工智能存储和处理的私人或机密信息。每种情况都引发了人们对人工智能相关数据隐私挑战的严重担忧。深思熟虑且有效的数据隐私政策
101、和保护措施将增强消费者对人工智能系统负责任开发和部署的信心。虽然众议院人工智能工作组一直在努力在人工智能的背景下审查数据隐私,但有必要进一步探讨这个问题。对数据隐私拥有管辖权的委员会应继续投入时间和资源来审查这些问题,并为美国人民提出解决方案。先进的人工智能系统需要越来越多的数据先进的人工智能系统需要越来越多的数据如果用于训练的数据太小或质量差,模型可能会表现不佳。使用来自多个不同来源的大量数据通常可以使训练好的模型表现更好。两党众议院人工智能工作组xxxii1埃莉诺塔斯曼等人,“AI 101-阿斯彭数字”,阿斯彭数字,2023年6月20日,www.aspendigital.org/repor
102、t/AI-101/#第2节。两党众议院人工智能工作组xxxiii根据一些研究,较大的训练数据集可以显著提高算法的性能。2,3在此后的几十年里,可用于训练算法的数字数据量急剧增加。4可以肯定的是,越来越多的研究表明,较小的数据集也可能在提高人工智能性能方面发挥作用。5可用于训练AI模型的数据以各种方式收集和许可。一些公司使用内部和外部数据的组合。6其他公司,如部署大型语言模型(LLM)和基础模型的公司,主要依赖从互联网获取(“抓取”)的数据。网络抓取是从互联网复制数据的过程。一些公司对抓取的数据进行打包、处理和标记以供销售,而另一些公司则发布开源数据集。7许多网站使用了一个自愿标准来表明它们不应
103、该被抓取,其他公司也在其服务条款中添加了这样的规定。不幸的是,这些明确提出的要求往往被忽视8,涉及人工智能公司的抓取问题引发的纠纷和诉讼越来越多。来源:人工智能多元研究-人工智能和机器学习的六大数据收集方法2班科、米歇尔和埃里克布里尔。“扩展到超大型语料库进行自然语言消歧”。ACL选集,2001,aclantology.org/P01-1005.pdf。3Kaplan、Jared等人,“神经语言模型的缩放定律”,arXiv,2020年1月23日,https:/arxiv.org/abs/2001.08361.4罗德德、塔尔和彼得斯拉特里。“是什么推动了人工智能的进步?数据的趋势。”Future
104、Tech,2024年3月19日,FutureTech.mit.edu/news/What-Drives数据中的进步。5Li,Kangming,et al.“利用大型材料数据集中的冗余,以更少的数据实现高效的机器学习。”NatureCommunications,2023年11月10日,https:/ made to mates/why-外部数据-应该成为你的数据。7Newman、Marissa和Aggi Cantrill。“高中教师的免费图像数据库为艾独角兽提供动力。”彭博社,2023年4月24日,www.B Companies-quitely改变你的技术服务-可能是不可靠的或具有欺骗性的。15
105、“差异隐私概述”。苹果公司,2017年11月2日,16“采访Andrew Trask,探讨语言模型应如何存储(和访问)信息。”互联,2024年10月10日。www.interconnects.ai/p/interviewing-andrew-trask。17徐,塔米。“我们可能会耗尽数据来训练人工智能语言程序。”麻省理工学院技术评论,2022年11月24日, Gravatt是明尼阿波利斯公立学校网络攻击中数千名儿童数据被盗的父母之一。她锁定了他们的信用账户,但仍然很担心。情绪伤害是由于在未经某人知情或同意的情况下发布有关某人的信息而导致的情绪困扰造成的。这些危害构成了许多隐私侵权行为的基础,如
106、侵入隔离、侵入等。18IBM。“什么是合成数据?”IBM,2024年,www.IBM.com/topics/Synthetic-Data。金博泽拉19号。“使用合成数据训练人工智能的利弊。”福布斯,2023年11月20日,www.F Dowey是“sextortion”的目标,这是一种基于暴露其亲密图像的威胁的在线勒索。Dowey今年早些时候悲惨地自杀了。21歧视的危害包括基于性别、种族、年龄、宗教或政治派别等特征使人们处于不利地位。它们可以阻碍人们获得工作、获得保险和找到住房的能力。自主性损害涉及颠覆或损害个人的自主性。例如,一些不良行为者使用“黑暗模式”或设计特征来欺骗或操纵用户。人工智能
107、系统加剧了隐私损害的例子有很多。合成内容可能会在未经他人同意的情况下复制其吸引力。面部识别系统可以实现对公共场所人员的普遍跟踪。人们发现,如果配置不当或保护不当,先进的人工智能系统,如LLM,会无意中泄露个人身份信息。22此外,人工智能系统已被证明可以推断出有关某人的敏感信息,23甚至可以从合法获得和去身份化的数据中推断出来,24在某些情况下会无意中透露个人属性,如政治观点或性取向。在一个案例中,一家大型零售商的系统预测到一名购物者怀孕了,并意外地将这一信息透露给了她的父亲。25美国的隐私保护各不相同美国的隐私保护各不相同目前,美国还没有全面的联邦数据隐私和安全法。然而,有几项联邦隐私法侧重于
108、各个部门或用例,如儿童隐私或健康信息。各国也采取了行动。迄今为止,美国已有19个州颁布了各自的州隐私法,其标准各不相同。2621Chigozie Ohaka等人,。“家长们说,停止用性扭曲恐吓儿童。”英国广播公司,2024年11月。https:/ al.“关于保护大型语言模型(LLMs)的数据隐私:一项调查”,arXiv,2024年3月8日,arXiv.org/abs/243.05156。23Cre#u、Ana Maria等人。“即使在很长一段时间内,交互数据也是可识别的。”自然通讯,2022年1月25日,https:/ al.“使用机器学习从已删除受保护健康信息的大型国家体育活动数据集中重新
109、识别个人的可行性。”JAMA Network Open,2018年12月21日,https:/ NDAA(P.L.117-81)第1118节,数字职业领域职业系列。选择国防部人工智能史选择国防部人工智能史国防高级研究计划局(DARPA)DARPA自20世纪60年代以来一直在进行人工智能研究。7其研究是自动驾驶汽车和自然语言处理(NLP)等广泛技术的基础,也是苹果Siri(PAL,Leans个性化助手程序)等常用人工智能应用程序的基础。82018年,DARPA启动了AI Next,这是一项耗资20亿美元的多年期活动,重点是自动化国防部业务实践,提高人工智能的稳健性和可靠性,并增强人工智能的安全性
110、。9DARPA目前有多个正在进行的人工智能研究项目,包括人工智能网络挑战赛(AIxCC),这是一项与Open AI、Anthropic、谷歌和微软等多家人工智能公司以及Linux基金会、开源软件基金会、DEFCON和黑帽美国等民间社会团体合作进行的奖励挑战赛。AIxCC决赛选手开发了开源人工智能,可用于保护人工智能免受各种网络攻击,并改善人工智能在防御网络攻击方面的使用。105联邦公报办公室、国家档案和记录管理局。公法116-283-2021财年威廉M(Mac)桑伯里国防授权法案。美国政府出版办公室,2020年12月31日,https:/www.govinfo.gov/app/details/
111、PLAW-116publ283.6联邦公报办公室、国家档案和记录管理局。第117-81号公法2022财年国防授权法案。美国政府出版办公室,2021年12月26日,7国防高级研究计划局(DARPA)。国防高级研究计划局。8同上。9国防高级研究计划局(DARPA)。“AI Next Campaign”。美国国防部高级研究计划局,https:/www.darpa.mil/work-with-us/ai-next-campaign.10国防高级研究计划局,“DARPA人工智能网络挑战证明了人工智能驱动的网络安全的前景。”国防高级研究项目局,2024年8月11日,https:/www.darpa.mil
112、/news-events/2024-08-11.负责任的人工智能2012年,国防部发布了首个人工智能负责任使用政策,随后又通过了其他人工智能伦理原则。112021年,国防部将发布了负责任人工智能(RAI)战略和实施路径,详细说明了根据部署指南和使用标准利用人工智能的框架。12该文件还概述了国防部将如何在适当两党众议院人工智能工作组xlii程度的人为监督和干预下开发和部署人工智能。RAI的五项原则确立了人工智能应该是负责任的、公平的、可追溯的、可靠的和可管理的。13Maven项目Maven项目通常被认为是国防部首次大规模使用人工智能,它自动分析了情报、监视和侦察平台收集的全动态视频。14尽管在早
113、期存在一些障碍,但Maven相关技术已经成熟。2023财年初,国防部将Maven项目(包括标记数据、人工智能算法、测试和评估能力以及平台本身的管理和责任)移交给了国家地理空间情报局(NGA)。15首席数字和人工智能官首席数字与人工智能官(CDAO)成立于2021年,是国防部负责加强和整合数据、人工智能和数字解决方案的高级官员。16CDAO负责联合人工智能中心(JAIC)、国防数字服务(DDS)和首席数据官(CDO)。该办公室的既定任务是“加快国防部将数据、分析和人工智能从董事会应用到战场,以实现决策优势。”11国防部。“国防部通过人工智能伦理原则。”美国国防部,2020年2月24日,https
114、:/www.defense.gov/News/Releases/release/article/2091996/dod-adopts-ethical-principles-for-artificial-intelligence/.12美国国防部。国防部负责任的人工智能战略和实施途径。2022年6月,13前11条。14美国国防部副部长备忘录,“建立算法战跨职能团队(Maven项目)”,2017年4月,15内森斯特劳特。“情报局接管了五角大楼的标志性人工智能计划Maven项目。”C4ISRNET,2022年4月27日,https:/ Lin.“认识Advana:国防部如何解决其数据互操作性挑战”。
115、政府技术内幕,2021年4月7日,https:/ DAGIR(政府所有的开放数据和应用程序互操作存储库)的新倡议。18这个多供应商生态系统将使行业和政府能够整合数据平台和开发工具/环境,同时保护政府数据所有权和行业知识产权。CDAO的这些和其他正在进行的努力仍然是为在国防部范围内扩展AI/ML建立必要基础的关键。关于人工智能的国家安全备忘录2024年10月,拜登政府发布了一份关于人工智能的国家安全备忘录。19国家安全备忘录做出了几项政策改变,包括将竞争对手国家对国内人工智能公司的行动作为首要情报优先事项,支持评估人工智能系统的活动,以及支持以符合美国价值观和人权的方式将人工智能系统用于国家安全
116、任务的活动。人工智能研究与开发人工智能研究与开发陆军部陆军利用和集成AI/ML来识别、评估和优先考虑威胁,并促进快速决策。陆军打算整合AI/ML,以加强情报行动、预测性维护、人才管理以及指挥和控制等用例。陆军的移动协作和自主传感器辅助威胁识别(ATR-MCAS)项目设计和开发了AI/ML机动算法,使自主地面和空中车辆能够感知环境,实现车辆之间的协作,并在侦察任务中聚合和分发大量目标数据。2018美国国防部。“CDAO宣布扩展数据、分析和人工智能能力的新方法。”美国国防部,2024年5月30日,https:/www.defense.gov/News/Releases/Release/Articl
117、e/3791829/cdao-announces-new-approach-to-scaling-data-analytics-and-ai-capabilities/.19白宫,“关于推进美国在人工智能领域的领导地位;利用人工智能实现国家安全目标;促进人工智能的安全、安保和可信度的备忘录。”白宫。2024年10月24日,20Patrick Ferraris,“未来战场的辅助探测”。美国陆军,两党众议院人工智能工作组xlv2023年9月8日,宾夕法尼亚州匹兹堡国际机场航空储备站,地面控制站为自主检查无人机绘制飞行路径。来源:DARPA旨在开发战斗机可以信赖的人工智能和自主应用海军部海军研究办公
118、室(ONR)正在整合人工智能,以优化任务规划、监控海军平台和预测可能的敌方行动路线。21ONR还整合了人工智能,为分布式海上作战提供智能自主系统(IAS)。目标是展示IAS的机动性和团队合作,并在战术相关范围内评估杀伤链,而不依赖于易受攻击的指挥和控制系统。Minerva项目利用人工智能优化杀伤链(包括传感器、舰船和武器)的分配和位置,以更好地平衡海军的进攻和防御态势。美国海军陆战队正在利用人工智能开发通用作战图,增强态势感知,并通过推断对抗意图和识别常见情报和战术场景中的模式来为指挥决策提供信息和支持。21美国海军,海军研究办公室。海军研究办公室。https:/www.onr.navy.mi
119、l/.两党众议院人工智能工作组xlvi空军部空军的基础研究项目调查了智能人机决策的科学原理和算法,以实现基于机器的未来作战空间网络。空军(USAF)和太空部队(USSF)也在寻求利用人工智能/机器学习来支持更快的材料开发和材料科学问题的表征建模;自动化多传感器数据开发、信息处理和数据融合;发展网络化协同自主武器技术;在复杂的对抗环境中支持和执行行动。“今夜战斗”项目旨在开发和展示基于人工智能的军事规划能力,以建立、评估和采用具有在竞争激烈的环境中的同伴冲突中取得决定性优势所需的速度和规模的战斗力。2024年6月,空军部首席信息官与空军研究实验室合作,宣布了一系列举措,在预先确定的保障措施范围内
120、负责任地试验生成人工智能。这些努力统称为“NIPRGPT”,旨在建立美国空军和美国空军的有机能力,并为私营部门合作伙伴展示新技术和军事应用的新用例提供试验场。22DARPADARPA目前有几项举措侧重于为任务领域开发和集成人工智能,包括空间域感知/数据融合、无人系统在军事相关环境中的自主机动、对抗性人工智能的防御以及检测人工智能生成内容(“deepfakes”)的算法。此外,DARPA还与空军和工业界协调,利用人工智能自主驾驶F-16战斗机。2023年,DARPA推出了AI Forward,旨在探索人工智能的新方向,以确保可信赖的军事系统。23AI Forward汇集了私营部门、学术界和政府,
121、以确定DARPA未来的人工智能重点领域和探索机会。该倡议还利用独特的融资机会和简化的承包流程,快速应对新兴的人工智能研究挑战,并确保当前和未来人工智能系统的可信度。问题问题人工智能在国家安全领域的发展面临着技术和非技术障碍。22VADM罗伯特夏普,“地理情报:情报的基础”。2022年4月25日。https:/www.nga.mil/news/Remarks_as_prepared_for_delivery_by_Vice_Adm_Rober.html.23国防高级研究计划局(DARPA)。“人工智能前进”。美国国防部高级研究计划局,https:/www.darpa.mil/work-with-
122、us/ai-forward.技术挑战分为以下几类:数据、基础设施/计算、算法和模型保护以及人才。所有这些都两党众议院人工智能工作组xlvii应该被视为不同于国防部和行政部门需要做出相应努力以确保人工智能得到适当利用的额外机构问题。数据数据、分析和人工智能在国防战略中概述的国防部所有四个优先事项中都发挥着重要作用。24它们构成了支撑国防部作战和业务分析的核心能力,以及支持国防部长“保卫国家”、“照顾我们的人民”和“通过团队合作取得成功”等优先事项的决策。数据、分析、人工智能也是执行联合作战职能,特别是CJADC2的核心能力。然而,增加数据使用的具体障碍包括以下内容:国防部仍在使用大量遗留系统。由
123、于各种原因,其中一些系统的位置使得更换或升级变得困难。例如,一些遗留系统位于船舶或卫星上,而另一些则用于风险容忍度低的关键技术。传统系统可能会使用人工智能无法使用的过时格式的数据。数据经常没有标记,因此无法用于训练人工智能算法。数据所有权不明确,或国防部不拥有相关数据。承包商可能拥有数据,但不会将其用于训练算法。出于程序或分类的原因,国防部和各军种的许多项目都是孤立的,阻碍了人工智能应用程序数据的可访问性和可用性。数据容易通过中毒或有目的的插入或删除来攻击,恶意更改算法或模型。24美国国防部。2022年国防战略、核态势评估和导弹防御评估。2022年10月,https:/media.defens
124、e.gov/2022/Oct/27/2003103845/-1/-1/1/2022-NATIONAL-DEFENSE-STRATEGY-NPR-MDR.pdf.两党众议院人工智能工作组xlviii基础设施/计算基础设施必须满足某些作战标准,以支持国防部的人工智能工作。为了在整个国防部企业中部署人工智能,特别是在作战和边缘部署,需要足够的基础设施以作战相关性所需的速度传输数据。在冲突中,特别是在印度洋-太平洋作战地区,由于缺乏适当的基础设施或计算能力,或者过度依赖易受攻击的基础设施(如海底电缆或卫星),作战人员对人工智能的使用可能会受到限制。人工智能算法与模型保护算法和模型必须抵御各种攻击,这些
125、攻击在国防部部署时可能会使它们无效或有害。算法和模型可以被有意或无意地操纵,使其无效、无用或不准确,从而可能危及人类生命。CDAO与人工智能系统的数据所有者和最终用户密切协调,正在制定指导原则,以确保国防部组件和供应商管理人工智能训练数据、算法和训练模型的整个生命周期。这种控制将有助于使由此产生的人工智能系统安全,并能够抵御恶意国家和非国家行为者的攻击、操纵或滥用。国防部的供应链保证和测试评估活动对于保护人工智能数据、算法和模型至关重要。硬件和软件供应链中的漏洞,包括我们的供应商基础,可以为对手提供针对国防部人工智能能力的攻击媒介。CDAO正在与负责采办和维持的国防部副部长办公室(OUSD A
126、&S)、DARPA、国防后勤局(DLA)、各军种和军事部反情报组织合作,对人工智能供应链风险评估进行原型化,并建立利用数据识别和优先考虑供应链威胁的最佳实践。硬件和软件供应链免受国防部供应链风险管理分类法定义的风险范围内的威胁。人才实现人工智能的全部好处需要一支精通各种技术和分析技能的员工队伍。国防部必须与私营部门竞争开发、使用和部署人工智能用于军事应用所需的技术人才。国防部还必须确保对其员工进行充分的培训,以了解如何最好地将人工智能用于军事用例,确保人工智能在整个部队中的道德应用,并将人工智能系统集成到传统平台中。两党众议院人工智能工作组xlix机构国防部在获取和使用人工智能方面面临着组织挑
127、战。采购专业人员、高级领导和作战人员往往对采用新的创新技术及其相关的失败风险犹豫不决。国防部在测试和整合人工智能和其他创新技术时,必须将这种心态转变为更加接受失败。它还需要一支了解人工智能及其对军事系统影响的采购团队。这些员工必须了解人工智能系统和软件的最有效获取途径。在国防部采购和扩展新能力可能需要数年时间,而人工智能和其他以软件为中心的技术通常在更短的时间内迭代。为了避免技术过时问题,国防部必须加快其规划、编程、预算和执行(PPBE)周期及其采购时间表,以确保人工智能技术在采购后保持相关性和最新性。与此同时,人工智能的发展速度超过了为其负责任的使用制定和采用相关政策的速度。国防部必须确保适
128、当更新政策,以反映技术不断变化的性质及其对战争的影响。非技术挑战非技术挑战包括人工智能开发带来的风险,尤其是具有先进功能的人工智能。由于国防部不控制第三方的人工智能开发过程,因此由此产生的人工智能假设、可靠性阈值、用例、目的和能力可能不适合国防部的使用。外部人工智能的发展也限制了国防部保护技术免受对手(包括民族国家和个人行为者)攻击的能力。尽管美国致力于以道德和负责任的方式发展人工智能,但许多其他方面却没有。最后,当代人工智能能力的新颖性使得预测和解决它如何被用于伤害变得更加具有挑战性。双重用途人工智能市场主要由传统国防工业基地以外的商业利益驱动。国防部必须利用这一新兴的私营部门和相关资本市场
129、,激励行业开发有利于作战人员的解决方案。这将要求国防部与非传统国防承包商更及时地大规模采购人工智能解决方案。与此同时,工业界还必须努力确保国防部相关数据和算法得到充分保护。两党众议院人工智能工作组l来源:Axios-中国发明家的专利申请首次通过美国许多人工智能应用程序具有双重用途,因为它们的多功能性和广泛的功能允许它们用于民用和军用。由于商业部门广泛使用这种两用技术,国防部极难限制对手对这些技术的获取。因此,国防部必须能够使用和防御两用人工智能。中国投资与道德人工智能标准美国的对手正在开发极其先进的人工智能模型、工具和应用程序,并广泛参与全球人工智能研究和出版物。中国共产党(CCP)表示,中国
130、打算到2030.25年成为人工智能领域的世界领导者中国在全球人工智能活力方面排名前三。26在几个类别上,包括人工智能专利申请数量、期刊出版物和期刊引用数量,中国都领先于美国。据估计,中国蓬勃发展的人工智能行业每年可以创造超过6000亿美元的经济价值。27保罗莫祖尔25号。“中国的人工智能繁荣”,纽约时报,2017年7月20日,https:/ al.“中国人工智能的下一个前沿可能会为其经济增加6000亿美元。”麦肯锡公司,2022年6月7日,www.McK new extrontier for AI in China可能会为中国经济增加6000多亿美元。两党众议院人工智能工作组li除了这些经济影
131、响外,中国共产党还为中国人民解放军制定了一项创新战略。这一战略的一个组成部分是将人工智能军事化用于下一代作战,从而获得对美国等国家的军事优势。中国在人工智能方面的成功部分归功于其专制政权下政府可用的大量数据集。该国拥有大量可用于持续训练人工智能模型和算法的标记数据集。28为了使美国在人工智能发展方面领先于中国,它必须开发更好的方法来大规模标记大量数据。虽然美国对人工智能的道德发展和使用有很高的标准,但我们的对手没有。特别是,中国共产党不受与美国相同的人工智能开发和部署标准的约束。这引发了人们对中国和中国人民解放军将如何利用人工智能系统和基础数据作为对抗美国的武器的严重担忧。自治人工智能和自主性
132、是密不可分的。自主系统可以为军队提供情报、监视、侦察、后勤、基地保护和防御等方面的巨大价值。然而,利用人工智能的自主武器也引发了人们对道德、决策和治理的担忧。自主系统必须经过仔细和持续的审查,并与国防部关于自主武器的政策保持一致。标准采用人工智能标准植根于上述倡议、框架、指导和道德准则。鉴于人工智能技术的发展速度如此之快,过早地制定正式的企业人工智能标准可能会限制国防部采用无法跟上人工智能技术和商业产品状态变化的方法或流程。因此,CDAO对AI标准采取了双重方法。在通用企业方法至关重要的领域,例如国防部人工智能道德原则或负责任的人工智能战略和实施途径中概述的领域,CDAO寻求尽早实施相关的人工
133、智能标准。相比之下,CDAO在制定单一统一企业标准不太重要的领域采用了更渐进、迭代的人工智能标准开发方法。这种更为稳健的人工智能标准开发速度使实验成为可能,并确保国防部能够跟上快速变化的技术。28数据、分析和人工智能采用策略。美国国防部,2023年6月27日,https:/media.defense.gov/2023/Nov/02/2003333300/-1/-1/1/DOD_DATA_ANALYTICS_AI_ADOPTION_STRATEGY.PDF.这种人工智能标准方法反映在国防部数据、分析和人工智能采用战略29和联合人工智能构建实施计划30中概述的CDAO过程中通过这种方法,与国防部各
134、部门合作并与行业对话,CDAO迭代地评估了可能适合在整个企业中采用和扩展的常见最佳实践、方法、技术模式或标准的领域。联邦人工智能构建实施计划中概述的这种方法是基于服务首席数据官、联合参谋部J2、ODNI的自动化智能使用机器(AIM)倡议和NGA的Maven项目的投入而开发的。两党众议院人工智能工作组lii29同上。30美国政府问责局,“人工智能:国防部需要全部门指导来为采购提供信息。”美国政府问政局,2023年6月29日,https:/www.gao.gov/products/gao-23-105850.两党众议院人工智能工作组liii主要发现主要发现人工智能是国家安全的重要组成部分。人工智能
135、是国家安全的重要组成部分。人工智能技术和人工智能专业知识,包括进攻和防御使用能力,对我们的国家安全生态系统至关重要。国会应该探索美国国家安全机构可以安全采用和利用人工智能好处的方法。美国的对手正在采用人工智能并将其军事化。美国的对手正在采用人工智能并将其军事化。美国的对手正在开发极其先进的人工智能模型、工具和应用程序,并广泛参与全球人工智能研究和出版物。国家安全需要先进的云访问和人工智能。国家安全需要先进的云访问和人工智能。在冲突中,美军将被要求进行远距离作战。在这些巨大的空间和海洋中传输数据将需要有效利用云、自动化和人工智能。国家安全需要人工智能来应对有争议的环境。国家安全需要人工智能来应对
136、有争议的环境。在冲突中,所有系统,包括支持人工智能的自主系统,都需要在有争议、被拒绝和退化的环境中运行。国防部正在积极探索边缘计算的需求,以确保人工智能在有争议的环境中保持相关性,并确保自主系统保持安全和值得信赖。人工智能可以极大地改善国防部的业务流程。人工智能可以极大地改善国防部的业务流程。现在可以部署人工智能来简化后台任务和功能,如审计、财务管理和其他业务流程。这可以节省更多的成本,减少官僚主义。两党众议院人工智能工作组liv建议建议建议:将国会监督重点放在国家安全的人工智能活动上。建议:将国会监督重点放在国家安全的人工智能活动上。国会应通过简报、听证会、信函和其他机会行使监督职能。这种监
137、督最好包括听取政府内外人士的意见。这些互动必须认识到,国会议员和工作人员对人工智能的理解程度各不相同。众议院军事委员会(HASC)和其他管辖委员会应确保关于国家安全人工智能活动的简报和听证会涵盖各种观点,并适合不同专业水平。建议:支持国防部扩大人工智能培训。建议:支持国防部扩大人工智能培训。国防部正在扩大对采购专业人员、作战人员、高级领导和其他在国防部工作的人员的人工智能培训。然而,国会必须确保国防部积极支持这些努力。建议:继续监督自主武器政策。建议:继续监督自主武器政策。2023年,国防部更新了适用于自主和半自主武器系统的指令3000.09武器系统自主性,包括那些包含AI的武器系统。31该政
138、策规定,“自主和半自治武器系统的设计将允许指挥官和操作员对武力的使用进行适当程度的人类判断。”该指令为设计、开发、获取、测试、部署和使用自主和半自动武器系统确立了指导原则。国会应继续对这一政策和任何相关的后续政策进行强有力的监督,并支持国防部要求对核武器发射进行有意义的人为控制的政策。建议:支持在军事环境中使用人工智能的国际合作。建议:支持在军事环境中使用人工智能的国际合作。国际合作将是解决人工智能在军事环境中带来的更广泛安全问题的关键。鼓励在军事背景下对人工智能进行监督的全球规范和协议,例如通过负责任军事使用人工智能政治宣言,可以加强全球安全工作。3231美国国防部,国防部指令3000.09
139、:武器系统的自主性。美国国防部,2023年1月25日,https:/media.defense.gov/2023/Jan/25/2003149928/-1/-1/0/DOD-DIRECTIVE-3000.09-AUTONOMY-IN-WEAPON-SYSTEMS.PDF.32军备控制、威慑和稳定局。关于负责任地军事使用人工智能和自主的政治宣言,美国国务院,2023年11月9日,两党众议院人工智能工作组lv背景背景人工智能已经在科学、经济和国防领域发生了变革。1在基础人工智能研究和商业应用方面,全球范围内都在竞相领先。美国仍然是基础研究和标准的领导者,并始终在其他国家之前生产尖端的人工智能应用程
140、序,如ChatGPT。然而,根据美国国家科学委员会(NSB)最新的科学与工程指标报告,像中华人民共和国(PRC)这样的敌对国家在被高度引用和合作的研发方面正在迅速超越世界。2为了保持美国在全球人工智能创新和治理方面的领导地位,国会将需要继续进行联邦研发工作,支持人工智能评估,并加强美国人工智能的标准化工作。人工智能领域并不新鲜。自20世纪50年代以来,美国政府一直在投资人工智能研究。然而,在过去的10年里,人工智能科学出版物的数量开始加快,2016年,美国政府发布了首个人工智能倡议。3与此同时,私营部门一直在加快对人工智能研发的投资,其中大部分集中在几家大公司。因此,人们越来越关注人工智能研发
141、中的公私合作伙伴关系,以加快人工智能的不同领域,并扩大小公司和高等教育机构为其发展做出贡献的机会。1埃里克施密特。人工智能、大国竞争与国家安全代达罗斯,2022年,https:/www.amacad.org/publication/daedalus/ai-great-power-competition-national-security.2国家科学委员会。2024年美国科学与工程状况:推进国家劳动力和创新的未来。美国国家科学基金会,2024年,美国国家科学委员会。人工智能与美国技术和劳动力发展的未来,国家科学基金会,2020年,两党众议院人工智能工作组lvi两党众议院人工智能工作组研究、开发和
142、标准人工智能研发涉及开发从数据中学习、表示知识和执行推理的方法,以构建能够执行通常需要人类智能的任务的计算机系统。推进人工智能系统的基础研究旨在改进学习、推理、解决问题、规划、知识表示、语言理解和视觉感知的方法,以及了解系统在现实世界中是如何运作的,以评估和应对风险,包括安全、安保和偏见。4在获取收益的同时了解和减轻潜在风险对于在所有领域和用例中采用人工智能非常重要,特别是对于安全关键案例或基于人工智能的决策对个人、社区、环境或整个社会产生重大影响的案例。需要在这一领域进行研究,以解决几个悬而未决的重大科技挑战,包括提高透明度机制,如可解释性和可解释性;评估人工智能系统的能力和局限性;为高性能
143、人工智能系统开发技术缓解和防御机制;提高人工智能系统或代理的感知和行动能力;以及开发可在真实和虚拟环境中部署的可扩展、通用的人工智能系统。人工智能研发还涉及人工智能系统的应用,以推进科学和工程领域的研究。以下是机器学习和人工智能多年来一直在帮助推动发现的科学领域的一小部分:生物学:个性化基因医学;生物分子结构预测;显微图像分析;合成生物学 地质学:空气、空间和海洋传感器的数据解释;地质建模 天文学:天体识别 化学:性能预测、可持续化学 物理学:复杂系统分析;材料预测;量子信息科学美国人工智能研究与开发美国人工智能研究与开发美国之所以能保持其在人工智能领域的领先地位,主要是因为几十年来联邦政府对
144、人工智能研发的持续和一致的投资。联邦投资促成了推动该技术向前发展的关键发现。例如,美国国家科学基金会(NSF)的投资支持了导致神经网络发展的关键研究,神经网络如今被工业和学术界广泛使用,其前身获得了2024年诺贝尔物理学奖4霍维茨、埃里克和米切尔、汤姆。“人工智能的科学进步:历史、现状和未来。”2024年2月,http:/ U.S.C.9411-国家人工智能倡议。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title15/USCODE-2023-title15-chap119-subchapI-sec941112美国众议院科
145、学、空间和技术委员会。AI One Pager:H.R.6216,2020年国家人工智能倡议法案。13白宫。“白宫成立国家人工智能倡议办公室。”白宫,2021年,https:/trumpwhitehouse.archives.gov/briefings-statements/white-house-launches-national-artificial-intelligence-initiative-office/.14科学技术政策办公室。“国家科学技术委员会(NSTC)。”白宫,两党众议院人工智能工作组lixNSTC发布了几份关于联邦在人工智能中作用的不同方面的报告,包括2016年的第一份
146、国家人工智能研发战略计划。15,16该战略计划呼吁对人工智能研究进行长期投资,以保持美国在人工智能领域的世界领先地位。它在2019年和2023.17,18进行了两次更新。该计划确定了有关基本人工智能问题、人类人工智能团队、人工智能治理、测量、测试以及人工智能、机器人等标准的知识差距。它包括对研究、研究基础设施、国际合作、开发共享公共数据集、促进公私伙伴关系以及人工智能研发劳动力需求的建议。联邦人工智能研发和基础设施投资亮点作为人工智能研发广度的例证,NSF的每个研究部门都为其人工智能研发的总投资组合做出了贡献。19值得注意的是,NSF是我们政府最大的计算机科学研究资助者。此外,由于其社会、行为
147、和经济科学理事会,NSF在推进人工智能的伦理、法律和社会影响以及更广泛的人工智能治理科学的研究方面也发挥着巨大的作用,包括支持包括社会科学家和技术伦理学家在内的跨学科研究团队。随着美国面临日益激烈的全球科技竞争,NSF对新兴技术研究的投资对于扩大创新和基础研究商业化至关重要。成立于2022年的技术、创新和伙伴关系(TIP)理事会建立在NSF在科学和工程研究与教育方面的长期领导地位之上。NSF最近发布了TIP的3年路线图,将人工智能和机器学习(ML)确定为首要任务。15科学技术政策办公室。“为人工智能的未来做准备。”白宫,2016年10月,https:/obamawhitehouse.archi
148、ves.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_fu图片_of_ai.pdf。16科学技术政策办公室。人工智能、自动化和经济,白宫,2016年12月,17国家人工智能研究与发展战略规划:2019年更新。国家网络与信息技术研究与发展协调办公室,2019,https:/www.nitrd.gov/pubs/National-AI-RD-Strategy-2019.pdf.18国家人工智能研究与发展战略规划:2023年更新。国家网络和信息技术研发协调办公室,2023年,https:
149、/www.nitrd.gov/pubs/National-Artificial-Intelligence-Research-and-Development-Strategic-Plan-2023-Update.pdf.19国家科学基金。“什么是人工智能?”美国国家科学基金会,资料来源:NITRD-人工智能研发投资。FY19至FY25。两党众议院人工智能工作组lx几十年来,美国能源部(DOE)及其国家实验室综合体一直在投资人工智能的研究和开发。在此期间,他们负责为开放科学和分类研究需求开发尖端的人工智能工具和高性能计算。在联邦综合体中,美国能源部拥有独特的计算资源,包括世界上最强大的两台超级计算
150、机,以及支持政府和非政府科学研究的物理和数字基础设施。这使他们能够快速推进复杂人工智能模型的开发,这可能会加速材料科学、化学和生物学等几个基础科学领域的发现。2023年5月的一份报告人工智能在科学、能源和安全领域的高级研究方向概述了这些努力的范围,美国能源部国家实验室的代表在报告中提出了进一步开发人工智能工具以促进科学创新的战略。21DOE最近还提出了一项名为“科学、安全和技术人工智能前沿”(FASST)的提案,强调了其管辖范围内可以快速利用人工智能的关键领域。22这些领域包括提高电网可靠性,开发更有效的癌症筛查和治疗方法,以及改善核武器储备的管理。2024年7月,美国能源部宣布了FAST倡议
151、的路线图,该倡议将利用该部先进的超级计算、研究基础设施及其设施产生的庞大科学数据库。2320阿菲菲萨贝特。“目前世界上最强大的7台超级计算机”,生活科学,2024年3月,https:/ AI试验台”。阿贡国家实验室,https:/www.alcf.anl.gov/alcf-ai-testbed.34橡树岭国家实验室。Citadel用户指南。橡树岭国家实验室,两党众议院人工智能工作组lxiiiNAIRR试点的参与者希望它能作为一个概念验证模型,将研究人员和教育工作者与资源联系起来,并展示NAIRR推进新颖、变革性和公共利益人工智能研究的能力。H.R.5077,即2023年的创造人工智能法案,是由
152、众议院人工智能核心小组成员、35名众议员Eshoo、McCaul、Beyer和Obernolte提出的一项法案,该法案将授权制定完整的NAIRR。36应监督NAIRR试点的实施和评估,为可能的全面NAIRR做准备。学术研究学术研究推进了科学技术的基础知识。大学的基础科学研究推动了可以带来新技术或改进技术的发现,同时教授和培训下一代研究人员。大学研究也是数千家为区域经济发展和创造就业机会做出贡献的衍生公司的来源。37这些衍生产品主要集中在大学附近,这推动了区域创新。然而,大学的人工智能研究仍然受到数据获取和计算能力的限制。即使是资源最丰富的学术机构也没有资源来训练与最先进的人工智能模型具有相当复
153、杂性的人工智能系统。为农村地区服务的机构和为少数民族服务的机构在获取这些资源方面面临着更为严峻的挑战。因此,许多研究人员完全离开了学术界,转而投身于工业。通过为研究人员提供更多获取先进计算资源的机会,人工智能研发将得到支持。这尤其有利于那些在参与人工智能研究生态系统时面临重大财务、能力或后勤挑战的人。科学机构可以促进从各种先进计算技术中获取计算资源,从传统的现场计算到云计算,再到边缘计算和量子计算等新兴计算范式。由于资源限制,这种网络基础设施将在为大量较小的人工智能研究项目和少数需要大量资源的前沿研究项目提供资源之间进行自然权衡。35美国众议院人工智能核心小组。众议员Anna Eshoo,ht
154、tps:/artificialintelligencecaucus-eshoo.house.gov/.36“H.R.5077-第118届国会(2023-2024):2023年人工智能法案。”Congress.gov,国会图书馆,2024年9月11日,https:/www.congress.gov/bill/118th-congress/house-bill/5077.37Prokop,D.、Huggins,R.和Bristow,G.(2019)。“学术衍生公司的生存:关键决定因素的实证研究。”国际小企业杂志,37(5),502-535。https:/doi.org/10.1177/026624
155、2619833540.两党众议院人工智能工作组lxiv开发共享的公共人工智能就绪数据集也将促进研发。基础研究,包括人工实验室测量、自动化实验室、现有数据管理和新的实验方法,对于生成人工智能模型所需的数据都至关重要。38此外,使数据可查找、可访问、可互操作和可重复使用的一致的联邦政策、指导方针和工具可以显著推进跨学科的人工智能研究。39联邦、学术和行业研究人员往往缺乏对现有数据的简化访问,这对于在整个研发过程中有效地发现、开发和将发现转化为行业至关重要。40,41这个问题在生物技术领域尤为严重。尽管美国历来资助美国国立卫生研究院的一些生物数据库开发和管理,但大多数生物数据资产分散在几个政府和非政
156、府存储库中,没有考虑互操作性。同样,这些存储库在元数据管理和质量方面可能存在很大差异,进一步阻碍了将这些数据集成到训练复杂的人工智能模型中。这可能部分是由于在如何报告和存储生物技术数据和元数据以供访问方面缺乏一致的标准。42联邦政府对开源软件库和工具包的投资也可以支持人工智能研发。联邦活动,如美国国家科学基金会的“实现开源生态系统的途径”计划,长期以来一直支持开源环境,以刺激关键和新兴技术的创新。43联邦机构可以开发开放软件库,或在行业没有市场动力为政府或其他部门开发这些工具的领域为其做出贡献。44科学创新需要实验设计、结果和数据的共享。通过分享这些信息,研究人员鼓励提高透明度、结果的可重复性
157、,并在从业者中传播研究结果。在过去几年中,许多使人工智能发展加速的开创性论文都是公开发表的,比如谷歌的变形金刚论文,45它支撑着像ChatGPT这样的系统。38同上。39美国参议院生物技术委员会。“利用生物数据。”参议院生物技术委员会,2023年,https:/www.biotech.senate.gov/press-releases/leveraging-biological-data/.40白宫。生物经济倡议数据的愿景、需求和拟议行动,白宫,2023年,41前31条。42前40条。43国家科学基金。“目的:实现开源生态系统的途径。”美国国家科学基金会,https:/new.nsf.gov/
158、funding/opportunities/pose-pathways-enable-open-source-ecosystems.44前19条。45Jakob Uszkoreit等人,“Transformer:一种用于语言理解的新型神经网络架构”,谷歌研究博客,2017年,https:/research.google/blog/transformer-a-novel-neural-network-architecture-for-language-understanding/.两党众议院人工智能工作组lxv然而,近年来,许多工业实验室一直在减少他们发表或在会议上发表的与人工智能相关的学术论文
159、的数量。虽然商业秘密和竞争优势是发布内容的合理考虑因素,但封闭的人工智能研究生态系统可能会限制美国在人工智能方面的竞争力。为了促进人工智能创新,联邦和非政府组织应该合作,在开放性和知识产权、安全和国家安全风险之间找到更适当的平衡。许多观察家描述了美国大学进行的基础研究和行业通常进行的商业化活动之间的“死亡谷”。46大学通常缺乏取得初步研究成果和生产适销产品所需的生产手段。根据美国艺术与科学院的说法,美国必须加快将发现和发明从实验室研究转化为产品的步伐,才能保持竞争力。47工作组发现,工业、政府和学术界之间更密切的合作可以增加技术转让,刺激创新,带来新产品和新工艺,并扩大市场。人工智能评估与测试
160、研究人工智能评估与测试研究许多人工智能系统始终如一地产生积极、可预测和预期的结果,但有些系统会失败或间歇性地产生意想不到的结果。因此,人工智能系统通常无法满足性能、安全性或可靠性预期。48随着人工智能系统能力的提高,人们对管理人工智能系统风险的兴趣也相应增长。49其中一些讨论侧重于解决理论安全问题或使人工智能系统的开发与某些价值观相一致,50而其他研究人员则专注于社会技术挑战,通过人工智能设计、开发和使用中涉及的复杂的人类、组织和技术因素来研究人工智能风险。51确定任何给定人工智能系统是否有好的结果和影响将需要对人工智能系统进行有效和一致的测试和评估。46Charles Wessner等人,“
161、推动创新跨越死亡谷”,ResearchGate,2005年,https:/ 22)。”国际计算机学会,https:/doi.org/10.1145/3531146.3533158.49达里奥阿莫迪、克里斯奥拉、雅各布斯坦哈特、保罗克里斯蒂亚诺、约翰舒尔曼和丹马内。人工智能安全中的具体问题。Dan Hendrycks、Mantas Mazeika和Thomas Woodside。灾难性人工智能风险概述,2023年9月。http:/arxiv.org/abs/2306.12001.50伊恩加布里埃尔。人工智能、价值观和对齐。思维与机器,30(3):411-437,2020年9月。https:/ B
162、urden,“评估人工智能评估:风险与前景”。剑桥大学Leverhulme未来智能中心、存在风险研究中心:arXiv,2024,https:/arxiv.org/html/2407.09221v1#bib.bib7.54纳拉亚南和卡普尔。评估大型语言模型:雷区,普林斯顿大学,https:/www.cs.princeton.edu/arvindn/谈话/评估_llms_雷区/#/9。55同上。56Sorelle Friedler等人,“人工智能红队不是人工智能危害的一站式解决方案:使用红队进行人工智能问责的建议”,数据与社会,2023年10月25日,https:/ Sheehan、Marjory
163、 S.Blumenthal和Michael R.Nelson。“中国新标准战略的三点启示”卡内基国际和平基金会。2021,https:/carnegieendowment.org/research/2021/10/three-takeaways-from-chinas-new-standards-strategy?lang=en.72Mark Montgomery和Theo Lebryk,中国的反乌托邦“新知识产权”计划表明美国需要重新承诺互联网治理,公正安全,2021年4月13日。73李喜瑞和陈定鼎,“西方应该害怕中国在技术标准制定中日益重要的作用吗?”外交官,2021年4月15日。http
164、s:/ 7000系列人工智能。“自动和智能系统(AIS),”https:/standards.ieee.org/initiatives/autonomous-intelligence-systems/.两党众议院人工智能工作组lxxi在NAIIA中,国会指示NIST支持人工智能标准的制定。80在第14110号行政命令中,总统指示NIST开展一系列活动,以支持与人工智能系统相关的标准化和评估。81例如,NIST在利益相关者发表意见后,制定了一项全球参与人工智能标准计划。82鉴于技术标准流程需要大量时间,联邦政府可以通过制定或分发现有的人工智能系统指南和最佳实践,帮助组织负责任地采用人工智能系统和
165、人工智能治理。例如,NIST通过与公共和私营部门的利益相关者合作,开发了一个自愿的人工智能风险管理框架。83NIST通过一个广受好评、共识驱动、开放、透明和协作的过程开发了该框架(于2023年1月发布)。NIST还发布了一份行动手册草案,以帮助组织实施。然而,该框架的第一次迭代只是通过引导读者批判性地思考人工智能系统的背景、测量和管理,为识别和减轻人工智能风险设定了理论基线。同样,该机构在风险管理框架下制定了一个特定的生成性人工智能风险简介。84随着时间的推移,这些文件也可以进入标准流程。其他几个联邦机构将在支持人工智能相关标准化方面发挥关键作用。国务院就外交政策问题向总统提供建议,并代表美国
166、在国际电信联盟等基于条约的国际标准机构中发挥领导作用。由于国务院缺乏参与许多技术标准的技术专长,它有时会将领导权委托给其他专家机构。专注于特定部门的面向任务的机构,如能源部,也可能与制定与其任务相关的人工智能相关标准的国际标准组织合作。80前11条。81前59条。82国家标准与技术研究所。人工智能风险管理框架。2023,https:/nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-5.pdf.83国家标准与技术研究所。人工智能风险管理框架。国家标准与技术研究所,84国家标准与技术研究所。生成人工智能简介:NIST人工智能风险管理框架。美国国家标准与技术研究所,