• 首页 >  人工智能 >  AI产业
  • 2024美众议院两党人工智能工作组报告:推进美国人工智能发展的指导原则及具体建议(中译本)(272页).pdf

    定制报告-个性化定制-按需专项定制研究报告

    行业报告、薪酬报告

    联系:400-6363-638

  • 《2024美众议院两党人工智能工作组报告:推进美国人工智能发展的指导原则及具体建议(中译本)(272页).pdf》由会员分享,可在线阅读,更多相关《2024美众议院两党人工智能工作组报告:推进美国人工智能发展的指导原则及具体建议(中译本)(272页).pdf(272页珍藏版)》请在薪酬报告网上搜索。

    1、封面样本内容完成后,设计将最终确定。【公司名称】文件标题文件副标题i两党众议院人工智能工作组目录目录目录目录.i致议长约翰逊和民主党领袖杰弗里斯致议长约翰逊和民主党领袖杰弗里斯.三世的的信信关于第关于第118118届国会两党众议院人工智能工作组届国会两党众议院人工智能工作组领先领先的人工智能进展人工智能进展:政策见解和美国对人工智能采用、负责任创新和治理的愿景哲学与原理哲学与原理调查结果和建议调查结果和建议.概述6 6政府用途政府用途.1政府使用的主要发现.17政府使用建议.19联邦优先购买州法律联邦优先购买州法律.23联邦优先购买州法律的主要发现.29联邦优先购买州法律中的建议.30数据隐私

    2、数据隐私.31数据隐私的主要发现.37数据隐私建议.38国家安全国家安全.39国家安全的主要发现.52关于国家安全的建议.53研究、开发和标准研究、开发和标准.54研究、开发和标准的主要发现.71研究、开发和标准建议.73公民权利和公民自由公民权利和公民自由.78公民权利和公民自由的主要发现.84关于公民权利和公民自由的建议.85教育和劳动力教育和劳动力.87教育和劳动力的主要发现.106教育和劳动力建议.107知识产权知识产权.111ii知识产权的主要发现.135知识产权建议.136两党众议院人工智能工作组iii内容真实性内容真实性.137内容真实性的主要发现.152内容真实性建议.153开

    3、放式和封闭式系统开放式和封闭式系统.155开放和封闭系统的主要发现.160开放和封闭系统中的建议.161能源使用和数据中心能源使用和数据中心.162能源使用和数据中心的主要发现.173能源使用和数据中心建议.174小企业小企业.176小企业的主要发现.182小企业建议.183农业农业.185农业的主要发现.196农业建议.198医疗保健医疗保健.200医疗保健的主要发现.218医疗保健建议.219金融服务金融服务.221金融服务的主要发现.236金融服务建议.237附录一:人工智能工作组成员.239附录二:人工智能工作组活动.242附录三:主要政府政策.246附录四:未来探索领域.248附录五

    4、:人工智能技术概述.249附录六:.AI251的定义挑战致谢.253两党众议院人工智能工作组iv尊敬的迈克约翰逊尊敬的哈基姆杰弗里斯演讲者民主领袖美国众议院美国众议院华盛顿特区20515尊敬的约翰逊议长和杰弗里斯领袖:我们,两党人工智能工作组的联合主席,在本报告中向您提交我们的主要发现。尽管人工智能(AI)不是一个新概念,但过去几年惊人的技术进步使AI成为众多政策讨论的焦点。人工智能具有巨大的潜力,可以改善社会和经济,应对复杂的国家挑战。从优化制造到开发治疗严重疾病的方法,人工智能可以大大提高生产力,使我们能够更快、更经济地实现目标。然而,我们也认识到人工智能可能被滥用并导致各种类型的伤害。本

    5、报告强调了美国在负责任的人工智能创新方面的领导地位,同时考虑了可能适合保护国家免受当前和新兴威胁的护栏。你要求24名成员、12名共和党人和12名民主党人制定美国人工智能采用、创新和治理的愿景。人工智能工作组从行业、政府、民间社会和学术界的领域专家那里收集了有关突出人工智能问题的信息,提供了66项关键发现和85项建议。总之,本报告概括了一种有针对性的方法,在我们进入人工智能广泛采用的时代时,平衡了促进充满活力的人工智能创新的需要,同时保护美国人免受潜在的伤害。我们感谢您成立人工智能工作组,并渴望这份报告为未来的国会政策制定提供信息。真诚地JayObernolte董事长刘联合主席两党众议院人工智能

    6、工作组v关于第关于第118118届国会两党众议院人工智能工作组届国会两党众议院人工智能工作组两党人工智能工作组由议长约翰逊和民主党领袖杰弗里斯于2024年2月20日创建。人工智能工作组由联合主席Jay Obernolte(R-CA)和Ted Lieu(D-CA)领导,由24名成员、12名共和党人和12名民主党人组成。人工智能工作组成员来自20个委员会,以确保对我们解决的众多人工智能问题承担全面的管辖责任,并从一系列不同的见解和观点中受益。工作组成员及其所代表的委员会的完整名单包含在附录一附录一。整个2024年,人工智能工作组召开会议,调查人工智能如何与众多政策领域交叉的数十个核心问题。人工智能

    7、工作组举行了多次听证会和众多圆桌会议,并与100多名专家进行了接触,其中包括商界领袖、政府官员、技术专家、学者、法律学者和其他领域专家。这些专家慷慨地提供了他们的见解、建议和评论,涵盖了一系列观点。这种方法允许从不同的角度全面探讨每个问题。多方面的政策分析方法将更好地为决策者做好准备,他们将应对我们国家面临的复杂的人工智能挑战,并将继续影响公共政策。专家的完整名单和工作队召集的活动清单载于附录二附录二。领先的人工智能进展:政策见解和领先的人工智能进展:政策见解和美国人工智能采用、负责任创新和治理愿景美国人工智能采用、负责任创新和治理愿景美国是人工智能的全球领导者,这是一种变革性的技术,也伴随着

    8、必须负责任地解决的风险。为了确保美国获得经济和国家安全利益,并在这里和世界各地负责任地开发和部署技术,美国必须采取积极措施维护我们目前的领导地位。负责任地开发和部署人工智能有可能在未来几十年帮助提高美国人的生活质量、健康、就业、安全和经济繁荣。美国在人工智能研究、人工智能公司数量、私营部门人工智能投资和人工智能行业采用方面处于世界领先地位。这一压倒性的国家优势源于我们长期以来的两大优势:我们培育了一个蓬勃发展的创新生态系统和一个灵活的行业监管框架。如果保持这些优势,将有助于我们的国家在负责任的人工智能设计、开发和部署方面保持世界无可争议的领先地位。本报告概括了两党众议院人工智能工作组的集体经验

    9、和见解。在第118届国会第二届会议期间,工作组就数十个突出的人工智能问题与100多名专家进行了接触。我们咨询了商界领袖、政府官员、技术专家、学者和法律学者,他们都对我们国家面临的各种复杂的人工智能挑战提出了见解、建议和评论。两党众议院人工智能工作组vi本报告阐述了指导原则、66项关键发现和89项建议,分为15章。它旨在为国会为应对人工智能技术的进步而采取的未来行动提供蓝图。工作组成员强烈认为,国会必须为我们社会中的人工智能制定并保持一个深思熟虑的长期愿景。这一愿景应作为我们未来几年采取的许多优先事项、立法举措和国家战略的指导。在考虑新政策时,国会应采取敏捷的方法,使我们能够以有针对性、可实现的

    10、方式做出适当的回应,并从所有可用的证据和见解中受益。支持这种敏捷范式需要不断学习和适应。国会应定期评估其政策的有效性,并随着人工智能技术及其影响的发展进行更新。如果我们遵循这种方法,在鼓励创新的同时采取战略行动,我们就可以引领人工智能的发展,并推动人工智能公共政策的全球愿景。这份报告当然不是国会对人工智能问题的最终决定。相反,它应该被视为识别和评估人工智能政策建议的工具。鉴于人工智能政策机遇和挑战的广度,该报告还列出了未来探索的领域。两党众议院人工智能工作组vii哲学与原理哲学与原理除了评估具体的人工智能问题外,工作组还采用了几项高级原则来构建这一政策分析。这些原则代表了超越特定人工智能问题的

    11、高级政策考虑,可以帮助指导未来的国会工作。我们确立的原则是:识别识别AIAI问题的新颖性问题的新颖性 推动人工智能创新推动人工智能创新 防范人工智能风险和危害防范人工智能风险和危害 用人工智能赋予政府权力用人工智能赋予政府权力 确认使用部门监管结构确认使用部门监管结构 采取渐进式方法采取渐进式方法 将人类置于人工智能政策的中心将人类置于人工智能政策的中心原则:识别原则:识别AIAI问题的新颖性问题的新颖性如果政策制定者考虑人工智能提出的问题是否真正新颖且没有先例,或者现有的法律法规是否已经解决了根本问题,他们就可以避免重复授权。对于所调查的每个人工智能问题,应确定问题的新颖性,以了解问题是否:

    12、由于以前不存在的功能,人工智能真的很新。由于以前不存在的功能,人工智能真的很新。当最近由于现有人工智能技术的性质而出现人工智能问题时,这表明我们需要更彻底地考虑现有的监管制度如何解决这个问题。人工智能已经显著改变人工智能已经显著改变了现有问题的性质。现有问题的性质。如果人工智能正在加剧现有问题,这表明这个问题值得考虑,但与现有的政策范式是一致的。解决这一问题的现有方法可能是适当的,但新的方法也可能是合适的。现有的制度也可能不是为了解决不断发展的技术而设计的。国会应该努力使法律法规现代化,以确保其在应用和执行中具有足够的技术中立性。这是一个没有被当代人工智能能力显著改变的现有问题。这是一个没有被

    13、当代人工智能能力显著改变的现有问题。如果人工智能只是实现具有基本相同效果的旧目的的许多方法之一,那么这表明现有的法律、法规和监管机构可能最适合评估和解决这个问题。两党众议院人工智能工作组viii原则:促进人工智能创新原则:促进人工智能创新作为人工智能开发和部署的全球领导者,美国最有能力负责任地为所有人发挥这项变革性技术的潜力。为了保持这种领导地位,使美国经济能够充分利用人工智能的好处,政策制定者应该继续促进人工智能创新。原则:防范人工智能风险和危害原则:防范人工智能风险和危害我们有义务保护美国人免受人工智能的意外和恶意使用。有意义的人工智能治理将需要技术和政策解决方案的结合,寻求理解、识别和减

    14、轻人工智能系统开发和部署的潜在风险和危害。一种深思熟虑的、基于风险的人工智能治理方法可以促进创新,而不是扼杀创新。此外,对于人工智能产生的每一个问题,人工智能都可以成为帮助修复或解决该问题的候选者。虽然技术解决方案并不总是可行的,但在制定政策时,应牢记其在人工智能政策中的应用。这一点尤其重要,因为人工智能技术继续快速发展,可能比过去的技术革命更频繁地出现新问题。原则:政府在负责任使用中的领导原则:政府在负责任使用中的领导信任是美国公共和私营部门广泛采用人工智能的必要组成部分。联邦政府应该通过采取负责任的原则和政策来培养这种信任,这些原则和政策可以捕捉到人工智能的好处,同时应对其风险并以身作则。

    15、鉴于人工智能在我们经济中的突出作用,用人工智能为政府服务提供动力也是必要的。我们必须确保国会、联邦机构、法院和其他政府实体利用人工智能来改善他们的服务、速度、效率和质量原则:支持特定行业的政策原则:支持特定行业的政策为了对人工智能政策采取敏捷和集中的方法,联邦机构和政府其他部门的特定部门监管机构应利用其现有权力,在各自的专业领域和人工智能使用的背景下应对人工智能的使用。这将使联邦机构和利用人工智能的实体之间能够进行更知情、更有效的接触。机构的专业知识应继续集中在最有效的地方。特定行业的监管机构也将受益于利用联邦人工智能资源库。这些资源的例子包括人工智能专业知识、人工智能就绪数据、计算硬件、技术

    16、资源以及允许安全评估人工智能风险的评估。此外,联邦机构之间通过机构间结构进行协调可以改善对这些资源的获取。改善访问和协调可以赋予机构人工智能技能,使他们能够分享经验教训,同时确保他们继续专注于自己最擅长的领域。两党众议院人工智能工作组ix原则:采取渐进式方法原则:采取渐进式方法人工智能是一项快速发展的技术。期望国会今年颁布立法,作为其对人工智能政策的最后决定,这是不合理的。正确使用人工智能技术需要一个精心设计、持久的政策框架。在本报告中,我们提出了一些建议,以开始构建这个框架,并理解随着人工智能能力的不断进步,我们必须保持谦逊,承认我们不知道我们不知道什么。政策可能需要随着人工智能的进步而调整

    17、和发展。国会在未来几年如何应对人工智能方面必须保持警惕和灵活。原则:将人类置于人工智能政策的中心原则:将人类置于人工智能政策的中心人工智能系统反映了设计它们的人的原则,需要人工输入来训练它们。美国还需要吸引、培训和留住人才,以保持这项技术的竞争力。此外,人工智能带来的自动化将对劳动力市场产生一些影响。当政策制定者考虑专注于人工智能发展和治理的法律法规时,他们应该关注人类的影响和人类自由。两党众议院人工智能工作组x两党众议院人工智能工作组:建议概述两党众议院人工智能工作组:建议概述政府使用政府使用联邦机构已经开始利用人工智能来授权现有的机构任务并简化程序。虽然用例在应用和成熟度方面各不相同,但负

    18、责任的政府使用人工智能的好处具有潜在的变革性。然而,不负责任或不当的使用会给个人隐私、安全以及政府对所有公民的公平和平等待遇带来风险。主要发现主要发现 联邦政府应利用核心原则,避免与现行法律相冲突。联邦政府应该警惕基于算法的决策。联邦政府应通知人工智能在政府职能中的作用。各机构应关注人工智能系统的基础。联邦劳动力的角色和相关的人工智能知识和技能不明确,差异很大。基于技能的招聘对于满足联邦劳动力对人工智能人才的需求至关重要。建议建议 采取信息和系统层面的方法在联邦政府中使用人工智能。支持灵活治理。使用人工智能减少行政负担和官僚主义。要求各机构通报人工智能在政府职能中的作用。促进并采用人工智能标准

    19、供联邦政府使用。支持NIST为联邦人工智能系统制定指导方针。改善联邦系统的网络安全,包括联邦人工智能系统。鼓励支持人工智能发展的数据治理策略。国会和政府必须了解联邦政府的人工智能劳动力需求。支持人工智能人才通过不同途径进入联邦服务。联邦优先购买州法律联邦优先购买州法律联邦立法优先于州人工智能法律是国会可以用来实现各种目标的工具。然而,联邦优先购买权提出了应该考虑的复杂的法律和政策问题。主要发现主要发现 联邦政府在人工智能问题上优先于州法律是复杂的。两党众议院人工智能工作组xi 联邦优先购买权有利有弊。优先购买权可以允许州政府采取行动,但须遵守最低或最高限额。优先购买权可以是多方面的。定义必须符

    20、合目的。建议建议 研究跨部门适用的人工智能法规。数据隐私数据隐私随着人工智能系统积累和分析大量数据,未经授权访问私人信息的风险越来越大。深思熟虑且有效的数据隐私政策和保护措施将增强消费者对人工智能系统负责任开发和部署的信心。主要发现主要发现 人工智能有可能加剧隐私损害。美国人对许多隐私损害的追索权有限。联邦隐私法可能会增强州法律。建议建议 探索以增强隐私的方式促进数据访问的机制。确保隐私法普遍适用且技术中立。国家安全国家安全与任何主要的两用技术一样,人工智能有可能加强和破坏国家安全。这凸显了其在美国国防战略中的重要性。目前,美国国家安全生态系统正在使用和开发人工智能,但与人工智能相关的研究和开

    21、发中有很大一部分是在政府活动之外进行的。两党众议院人工智能工作组xii主要发现主要发现 人工智能是国家安全的重要组成部分。美国的对手正在采用人工智能并将其军事化。国家安全需要先进的云访问和人工智能。国家安全需要人工智能来应对有争议的环境。人工智能可以极大地改善国防部的业务流程。建议建议 将国会监督重点放在国家安全的人工智能活动上。支持国防部扩大人工智能培训。继续监督自主武器政策。支持在军事环境中使用人工智能的国际合作。研究、开发和标准研究、开发和标准美国仍然是基础研究和标准的领导者,并始终在其他国家之前生产尖端的人工智能应用程序。为了保持美国在全球人工智能创新和治理方面的领导地位,国会将需要继

    22、续开展联邦研发工作,支持人工智能评估,并加强美国人工智能的标准化工作。主要发现主要发现联邦政府对基础研究的投资使当前的人工智能机会成为可能。持续的人工智能研究和评估将促进人工智能的进步。人工智能研发的进展与获取人工智能资源密切相关。封闭的人工智能研究生态系统可能会限制美国在人工智能领域的竞争力。大学人工智能研发是必要的,但必须与充满活力的技术转让活动相结合。围绕人工智能评估推进科学研究将有助于推动采用。美国在标准制定方面处于全球领先地位,但面临着竞争对手。建议建议持续监测和评估人工智能对不同行业和国家的影响。支持基础研发,以保持人工智能创新的领先地位。增加从大学研发到市场的技术转移。两党众议院

    23、人工智能工作组xiii 促进人工智能研发的公私合作。促进围绕人工智能评估和测试的研究和标准化。促进基础设施和数据的发展,以实现人工智能研究。继续参与国际标准制定。坚持美国制定标准的做法。将国家人工智能战略与更广泛的美国技术战略相结合。探索如何利用人工智能加速跨学科的科学发现。支持小企业的人工智能研发。鼓励与志同道合的盟友和合作伙伴在研发方面进行国际合作。公民权利与公民自由公民权利与公民自由有缺陷或滥用技术的不利影响不是新的发展,而是设计和使用人工智能系统的重要考虑因素。人工智能模型和更一般的软件系统可能会产生误导或不准确的输出。根据有缺陷的产出采取行动或做出决定可能会剥夺美国人的宪法权利。主要

    24、发现主要发现人工智能的不当使用会违反法律,剥夺美国人最重要的权利。了解人工智能模型的可能缺陷和缺点可以减轻人工智能的潜在有害用途。建议建议当人工智能用于高度重要的决策时,让人类参与进来,积极识别和补救潜在的缺陷。各机构必须了解并防止在歧视性决策中使用人工智能。为行业监管机构提供工具和专业知识,以解决其领域内与人工智能相关的风险。探索受人工智能决策影响的用户的透明度。支持标准和技术评估,以减轻涉及人工智能系统的有缺陷的决策。两党众议院人工智能工作组xiv教育和劳动力教育和劳动力尽管联邦和州政府做出了努力,但美国在研究、开发和部署人工智能应用程序所需的适当人才方面仍存在巨大差距,而且这一差距还在扩

    25、大。对美国学习者进行人工智能主题的教育和培训,对于美国在人工智能技术方面的持续领导地位以及美国的经济和国家安全至关重要。主要发现主要发现 人工智能越来越多地被雇主和雇员用于工作场所。培养国内人工智能人才和美国的持续领导地位将需要大幅改善基础STEM教育和培训。通过利用更熟练的技术劳动力,美国的人工智能领导力将得到加强。在美国采用人工智能需要具备人工智能素养。K-12教育工作者需要资源来提高人工智能素养。建议建议 投资K-12 STEM和人工智能教育,扩大参与。通过提供所需的人工智能资源来提高美国的人工智能技能。全面了解美国的人工智能劳动力。促进公私伙伴关系,以加强人工智能劳动力。在支持政府-大

    26、学-产业伙伴关系时,发展区域专业知识。为所有美国人拓宽通往人工智能劳动力的途径。支持人工智能相关工作的工作角色、工作类别、任务、技能集和能力的标准化。评估现有的劳动力发展计划。在美国各地推广人工智能素养。为美国教育工作者提供人工智能培训和资源。支持NSF课程开发。监控劳动法和工人保护与人工智能采用的相互作用。两党众议院人工智能工作组xv知识产权知识产权生成式人工智能技术的进步为知识产权法带来了新的问题,提出了如何对待艺术、文字、品牌、歌曲、发明和其他创作的所有权、创作和保护的问题。主要发现主要发现目前尚不清楚在某些情况下是否有必要采取立法行动,一些知识产权问题目前正在法院审理。生成型人工智能对

    27、创意社区提出了独特的挑战。创作者通常很难知道他们的版权作品是否被人工智能开发人员使用。全球知识产权政策格局为开发者和创作者带来了挑战和机遇。虽然一些用例是合法和受保护的表达形式,但深度伪造和有害数字复制品的激增是一个重大而持续的挑战。建议建议 明确知识产权法律、法规和代理活动。适当地应对人工智能创造的deepfakes日益增长的危害。内容真实性内容真实性生成式人工智能系统包括可以生成文本、图像、视频和音频/语音内容的人工智能。这些系统基于大量现有的书面、视觉或音频数据进行训练。这些系统识别训练数据中的统计模式,然后创建与这些模式相匹配的新内容。随着生成式人工智能系统继续接受更多数据和更强大计算

    28、资源的训练,它们可以产生质量和真实性越来越高的输出。主要发现主要发现合成内容有许多有益的用途,但如果使用不当,可能会造成危害,破坏人们对信息完整性的信心。目前,内容身份验证还没有单一的最佳技术解决方案。技术素养将有助于应对内容真实性的挑战,但还不够。数字身份技术允许人们在线验证他们是谁,并减少欺诈。建议建议 支持基于风险、多管齐下的内容真实性方法。支持内容真实性的技术解决方案。解决可证明的危害,而不是合成内容的推测性危害。两党众议院人工智能工作组xvi确定人工智能开发人员、内容制作人和内容分销商在合成内容方面的责任。审查与有害合成成分有关的现行法律。确保受害者拥有必要的工具。开放式和封闭式系统

    29、开放式和封闭式系统尽管经常被描述为开放或封闭,但事实上存在不同形式的人工智能模型可用性和透明度的连续体。开放模型提供了许多好处,包括定制、透明度和可访问性。然而,恶意行为者利用开放模型造成伤害的风险越来越大,包括实施金融欺诈、威胁国家安全或大规模身份盗窃。主要发现主要发现 开放的人工智能模型鼓励创新和竞争。目前,有限的证据表明开放式模型应该受到限制。建议建议 鼓励人工智能模型开发中的创新和竞争。关注明显的伤害和身体威胁。根据人工智能能力评估化学、生物、放射性或核(CBRN)威胁。继续监控开源模型的风险。能源使用和数据中心能源使用和数据中心创建和使用最先进的人工智能模型需要大量的电力,支持人工智

    30、能的数据中心增加了电力需求。这给电网可靠性和可负担的电力带来了挑战,为了美国的经济和国家安全,必须解决这些问题。人工智能也可以成为开发美国能源供应的宝贵工具。两党众议院人工智能工作组xvii主要发现主要发现人工智能对美国的经济利益和国家安全至关重要,维护一个足够强大的电网是必要的。人工智能日益增长的需求给电网带来了挑战。美国在人工智能领域的持续创新需要能源领域的创新。现在正确规划新的发电和输电对人工智能的创新和采用至关重要。人工智能工具将在能源领域的创新和现代化中发挥作用。建议建议支持并增加联邦对科学研究的投资,以实现人工智能硬件、算法效率、能源技术开发和能源基础设施的创新。加强对人工智能数据

    31、中心用电量的跟踪和预测。创建新的标准、指标和定义分类,以传达相关的能源使用和效率指标。确保人工智能和能源电网成为关于电网现代化和安全的更广泛讨论的一部分。确保新基础设施的成本主要由获得相关利益的客户承担。促进人工智能的广泛应用,以加强能源基础设施、能源生产和能源效率。小型企业小型企业小企业在保持美国在与其他世界大国的人工智能竞赛中的领先地位方面发挥着至关重要的作用。不幸的是,小企业往往缺乏理解或资源,无法有意义地采用这项关键技术。主要发现主要发现 小企业可能不完全了解如何最好地采用人工智能。小企业可能缺乏足够的资金和人工智能资源。小企业在满足人工智能监管合规方面面临着过多的挑战。两党众议院人工

    32、智能工作组xviii建议建议 支持小企业人工智能素养。为小企业采用人工智能提供资源。调查采用人工智能的小企业的资源挑战。调查小型人工智能企业的资源挑战。减轻小型企业的合规负担。农业农业人工智能已经成为一种能够彻底改变农业的强大工具。人工智能的进步有可能增加粮食供应,降低粮食价格,促进经济增长。主要发现主要发现人工智能驱动的精准农业可以提高农场生产力和自然资源管理。增加人工智能集成可以实现机械化和自动化技术,并提高特种作物行业的效率。农村和农业社区缺乏可靠的网络连接,阻碍了人工智能在农业部门的采用。人工智能已经是解决和应对野火和森林健康危机的有力工具。美国农业部更多地采用人工智能可以加强许多农业

    33、项目的交付,并降低农民和其他人的成本。CFTC基于原则的方法允许在处理新技术方面具有灵活性。建议建议评估现有项目,以确定在精准农业中推进人工智能的机会。进一步推进人工智能研究和开发,以提高特种作物的效率。继续探索人工智能技术的研究和创新如何通过更好的规划和战略帮助土地管理者改善森林健康。指导美国农业部在项目交付中更好地利用人工智能。继续审查CFTC基于原则的框架的应用,以确保其能够捕捉到人工智能在金融市场中带来的独特风险。两党众议院人工智能工作组xix保健保健人工智能技术有可能改善医疗保健研究、诊断和护理提供的多个方面。人工智能可以快速分析大型数据集,提高诊断准确性,简化操作并自动化日常任务,

    34、所有这些都有可能提高治疗的效率和疗效,减轻医疗从业者的负担,为患者护理腾出更多时间。主要发现主要发现人工智能在医疗保健中的使用可能会减轻管理负担,加快药物开发和临床诊断。缺乏普遍、统一的医疗数据和算法标准阻碍了系统互操作性和数据共享。建议建议鼓励所需的实践,以确保医疗保健中的人工智能是安全、透明和有效的。为与人工智能相关的医疗保健研究提供强有力的支持。制定激励措施和指导,鼓励在各种部署条件下对医疗保健中的人工智能技术进行风险管理,以支持人工智能的采用,改善隐私,增强安全性,并防止不同的健康结果。支持制定与人工智能问题相关的责任标准。支持适当的支付机制,同时不扼杀创新。金融服务金融服务几十年来,

    35、金融服务行业一直在使用人工智能技术。持续增长的理想环境将使人工智能创新蓬勃发展,同时保护消费者并保持市场完整性。通过专注于促进创新、增强客户体验和确保金融包容性,人工智能可以显著提高金融部门的效率和可及性。主要发现主要发现 人工智能为金融服务业的转型提供了机会。数据质量和数据安全在金融服务人工智能模型中至关重要。人工智能可以扩大对金融产品和服务的访问。人工智能技术已经部署在整个金融服务领域。一些监管机构使用人工智能来识别违规行为。小型金融服务公司在采用人工智能方面可能处于劣势。两党众议院人工智能工作组i建议建议营造一个金融服务公司可以负责任地采用人工智能技术的环境。鼓励和资源监管机构增加他们在

    36、人工智能方面的专业知识。在金融服务和住房领域使用人工智能时,维护消费者和投资者的保护。考虑监管“沙盒”的优点,它可以让监管机构尝试人工智能应用。支持基于原则的监管方法,以适应快速的技术变革。确保法规不会阻碍小公司采用人工智能工具。背景背景联邦机构已经开始在各种用例中利用人工智能(AI)来授权现有的机构任务并简化程序。1斯坦福大学2020年2月的一份报告发现,“所研究的近一半的联邦机构已经尝试了人工智能和相关的机器学习工具。”2作为2020年签署的第13960号行政命令的一部分,特朗普政府指示联邦机构创建一份人工智能用例清单。3国务院、司法部和疾病控制与预防中心有几个突出的例子。4自2020年以

    37、来,联邦政府继续增加更多的人工智能用例。美国政府问责局(GAO)2023年12月的一份报告发现,23个受访机构中有20个使用人工智能,总共报告了大约200个人工智能使用实例。AI.gov还公布了整个联邦政府的人工智能用例,包括一个供专业人士和学生加入国家人工智能人才激增的门户网站。两党众议院人工智能工作组ii1白宫。“人工智能用例”。AI.gov,https:/ai.gov/ai-use-cases/.2David Freeman等人,“算法政府:联邦行政机构中的人工智能”,斯坦福法律,2020年2月,3促进联邦政府使用值得信赖的人工智能。联邦公报,第85卷,第236期,2020年12月,4L

    38、ewis Kamb,“一些美国政府机构正在测试人工智能,以帮助满足公共记录请求,”NBC新闻,2023年8月1日。https:/ 准确性 可靠性 稳健性 安全性和有效性 安全 隐私 透明度 可解释性和可解释性 通知和解释 人类的选择、考虑和回退 股权 减轻有害偏见虽然围绕人工智能治理原则的共识将为有意义地解决负责任的人工智能使用问题提供一个有用的起点,但各机构在制定实现这些原则所需的方法方面仍面临重大挑战。在人工智能生命周期中实施原则是一项具有挑战性和复杂性的任务。97大赦国际权利法案。白宫,https:/www.whitehouse.gov/ostp/ai-bill-of-rights/.8

    39、个IT现代化卓越中心。政府人工智能指南:美国联邦政府人工智能应用的生动和不断发展的指南。美国总务管理局,https:/coe.gsa.gov/coe/ai-guide-for-government/evolving-principles-and-guidelines/index.html.9鲁清华,朱黎明,徐锡伟,Jon Whittle,Didar Zowghi和Aurelie Jacquet。负责任的人工智能模式目录:人工智能治理和工程最佳实践集。ACM计算机。当然。56,7,第173条。2024年7月,35页。https:/doi.org/10.1145/3626234.两党众议院人工智能

    40、工作组iv为了应对这些挑战,多年来发布了特别指导,如政府问责局的联邦机构问责框架和总务管理局的政府人工智能指南。10,11虽然这些资源可以支持机构开发人工智能治理方法,但没有一种资源可以提供实施指导原则的整体方法。拜登政府发布了关于安全、可靠和值得信赖的人工智能开发和使用的第14110号行政命令,要求管理和预算办公室(OMB)成立一个跨部门委员会,协调和制定联邦机构人工智能使用、治理和风险管理的指导方针。作为回应,OMB于2024年3月28日发布了M-24-10,该文件“为人工智能治理、创新和风险管理制定了新的机构要求和指导,包括通过影响公众权利和安全的人工智能使用的具体最低风险管理实践。”1

    41、2备忘录要求各机构更新任何现有的内部人工智能指导原则和指导方针,以确保与新的指导方针保持一致,并实施到2024年12月1日,执行命令的最低做法(可能延期),并停止在其运营中使用任何不符合规定的人工智能到该日期的最低实践。随着联邦政府继续实施关于联邦人工智能使用的各种法律、行政命令和指导,应在管理联邦信息系统、数据、网络安全和采购的现有政策的背景下考虑这些行动。10美国高。人工智能:联邦机构和其他实体的问责框架,美国政府问责局,2021年6月,https:/www.gao.gov/products/gao-21-519sp.11前8条。12注:不包括IC和DoD的元素。沙兰达杨。“推进人工智能机

    42、构使用的治理、创新和风险管理。”白宫,https:/www.whitehouse.gov/wp-content/uploads/2024/03/M-24-10-Advancing-Governance-Innovation-and-Risk-Management-for-Agency-Use-of-Artificial-Intelligence.pdf.资料来源:美国政府问责局报告-人工智能:各机构已开始实施,但需要完成关键要求。两党众议院人工智能工作组v此外,联邦政府有工具和政策来支持采购更多的人工智能系统,最近的OMB指南提出了额外的人工智能采购要求。13为了减少任何潜在的冗余、模糊或相互

    43、冲突的指导,制定涉及人工智能使用和采购的新政策应从分析和理解如何应用现有政策和程序开始。需要立法协调的解决方案和跨越人工智能生命周期的整体运营资源,以实现一致管理的政府人工智能系统。以下部分描述了可能记录的(非详尽的)信息,以实施负责任的人工智能原则,以及如何共享这些信息以实现透明度。联邦人工智能治理和透明度联邦人工智能治理和透明度随着各机构今天使用人工智能并确定未来的用例,国会应确保采取必要的保障措施来保护公众的隐私、安全、公民权利和公民自由。公众应该知道,联邦机构有成熟的政策来利用人工智能,同时防范基于算法的决策带来的风险,这些决策不恰当地依赖人工智能系统,而没有必要的治理和透明度政策来确

    44、保正确有效的使用。围绕联邦机构使用人工智能的治理和透明度要求可以提供有关政府人工智能系统的重要信息,并用于向内部政府管理层、国会、公众和受人工智能知情输出影响的利益相关者提供信息。透明的报告要求是为未来的政策制定提供信息的众多工具之一,并提供所需的详细、可操作和及时的信息,以确保联邦机构始终负责任和有效地使用人工智能。14对于机构应记录和披露的信息的类型和广度,人们的看法各不相同,但它们可能包括:数据和元数据数据和元数据:有关用于训练、测试或微调模型的数据的信息,包括有关数据来源或出处、收集方法、样本大小、清理数据的程序、偏差和偏斜、包含受保护的特征或代理特征以及最终完整性的信息。13数字创新

    45、联盟致联邦副首席信息官David A.Myklegard和管理与预算办公室联邦采购政策高级顾问ChristineJ.Harada的信2024年4月29日,https:/alliance4digitalinnovation.org/wp-content/uploads/2024/04/2024.04.29-ADI-Comments-on-Responsible-Procurement-of-Artificial-Intelligence-in-Government-RFI-Final.pdf.14Alex Engler,“人工智能监管工具箱:政府如何发现算法危害”,布鲁金斯学会,2023年。ht

    46、tps:/www.brookings.edu/articles/the-ai-regulatory-toolbox-how-governments-can-discover-algorithmic-harms/.两党众议院人工智能工作组vi 软件软件:关于软件组件及其来源的信息。15 模型开发模型开发:有关人工智能系统的培训、调整、验证和测试的信息,谁要求开发,谁开发了模型,开发中咨询的社区,开发过程,开发中使用的工具,模型的预期用途和已知局限性,以及与模型的效率、性能、偏见和能源使用有关的指标。模型部署:模型部署:有关模型部署和监控的信息,包括模型开发中确定的指标,向受模型使用影响的公众提供

    47、人工智能模型使用通知和解释的计划,以及任何正在进行的培训、验证和测试。模型使用模型使用:关于如何使用模型的信息,包括部署模型的整个系统的组织背景和设计、模型的具体用例应用、部署模型利用的信息、模型旨在告知的确定或决策类型、对模型及其结果的有意义的解释、如何处理输出的政策、确定的危害风险以及包括人为监督或干预在内的风险缓解计划。联邦机构可能很难在追求透明度与保护隐私、安全、专有信息和国家安全之间取得平衡,因此,透明度并不总是意味着向公众完全披露。16在这种情况下,透明度可能依赖于有关数据收集和测试方法的文件,而不是对基础测试数据的访问。17报告和透明度政策的设计应使不同的内部政府职能得到适当的治

    48、理,例如使情报界内部的监督职能、统计信息的受控共享或国会对行政部门机构的监督作用成为可能。人工智能系统联邦标准人工智能系统联邦标准虽然美国政府在制定与信息技术(IT)相关的国际标准方面主要发挥着支持作用,但联邦政府确实为政府系统制定了自己的标准。这些标准通常基于或符合国际共识标准。15国家电信和信息管理局。国家电信和信息管理局商务部“软件物料清单”,https:/www.ntia.gov/page/software-bill-materials.16Olsen、Henrik Palmer等人,“公共治理透明度的权利:信息自由和公共机构使用人工智能”,数字政府:研究与实践,第5卷,第1期,202

    49、4年3月12日,第1-15页,17同上。1995年,国会签署了国家技术转让和进步法案(NTTAA)18,以指导联邦机构的标准制定活动。NTTAA指示联邦机构尽可能采用自愿共识标准,以避免重复工作。它还使联邦机构负责通过合格评定活动评估采用标准的有效性。在支持或采用标准时,每个机构必须与其他相关机构和私营部门协调其活动。为了向各机构提供实施非关税壁垒法案的指导,行政管理和预算局发布了行政管理和行政管理局通告A-119(“联邦参与自愿共识标准的制定和使用以及合格评定活动”)。美国国家标准与技术研究院(NIST)负责根据2002年电子政务法案(P.L.107-347)19和联邦信息安全现代化法案(P

    50、.L.113-283)20颁布广泛支撑联邦计算机系统的标准,称为联邦信息处理标准(FIPS)两党众议院人工智能工作组vii在颁布这些标准时,NIST必须确保FIPS尽可能遵守自愿共识标准,以避免根据NTTAA重复工作。OMB是负责监督和协调联邦信息管理(包括IT管理)的机构。国会已指示OMB制定和监督机构IT政策和实践,包括领导政府在全国范围内实施NIST颁布的标准,并执行与这些标准一致的机构政策。在OMB发布政策和指导的同时,NIST继续通过根据需要向其他机构提供技术支持来支持这些标准的实施。网络安全和基础设施安全局在帮助促进政府IT系统实施网络安全标准方面也发挥着重要作用。针对人工智能,政

    51、府中的人工智能法案(P.L.116-260)21要求行政管理和预算办公室就机构使用人工智能和机构人工智能治理计划发布全政府指导。18联邦公报办公室、国家档案和记录管理局。第107-347号公法2002年电子政务法。美国政府印刷局,2002年12月16日,https:/www.govinfo.gov/app/details/PLAW-107publ347.19同上。20联邦公报办公室、国家档案和记录管理局。公法113-283-2014年联邦信息安全现代化法案。美国政府出版办公室,2014年12月17日,https:/www.govinfo.gov/app/details/PLAW-113publ

    52、283.21联邦公报办公室、国家档案和记录管理局。第116-260号公法2021年综合拨款法。美国政府出版办公室,2020年12月26日,两党众议院人工智能工作组viii此外,推进美国人工智能法案(P.L.117-263)22要求特定的联邦机构采取措施,促进负责任的人工智能获取和使用,同时保护隐私、公民权利和公民自由。例如,国土安全部(DHS)必须为国土安全部发布与人工智能的获取和使用有关的政策和程序,并考虑人工智能系统的风险和后果。推进美国人工智能法案还指示OMB要求联邦机构准备、维护和公开其当前和计划中的人工智能用例清单。在国家人工智能倡议法案(P.L.116-283)中,23国会指示NI

    53、ST支持人工智能标准,并通过与公共和私营部门的利益相关者合作,制定自愿的人工智能风险管理框架。2021年7月,NIST发起了一项信息请求,以开发一个框架,更好地管理人工智能对个人、组织和社会的风险。在与公共和私营部门合作伙伴进行了大量合作后,NIST于2023年1月26日发布了其人工智能风险管理框架和随附材料,以帮助指导人工智能的安全和负责任的开发和使用。24然而,该框架的第一次迭代只是通过引导读者批判性地思考人工智能系统的背景、测量和管理,为识别和减轻人工智能风险设定了理论基线,因此它不是一份标准文件。正如在“研究、开发和标准研究、开发和标准”一章章中所讨论的那样,人工智能相关标准严重不发达

    54、。这包括联邦系统的标准。AIAI赋能基础设施赋能基础设施有效的公共部门人工智能系统治理必须在人工智能系统的整个生命周期内进行管理。对支持人工智能系统的联邦IT和数据保持健全的政策,将使机构最终使用的人工智能得到更好的治理,特别是那些专注于维护高质量数据、确保数据治理和培养公共部门员工技术能力的政策。2522联邦公报办公室、国家档案和记录管理局。公法117-263-2023财年詹姆斯M英霍夫国防授权法案。美国政府出版办公室,2022年12月22日,https:/www.govinfo.gov/app/details/PLAW-117publ263.23联邦公报办公室、国家档案和记录管理局。公法1

    55、16-283-2021财年威廉M(Mac)桑伯里国防授权法案。美国政府出版办公室,2020年12月31日,24美国国家标准与技术研究所,人工智能风险管理框架,2024年,25D OToole,K.,C.Turbes和A.Freeman,人工智能时代的数据政策:人工智能数据使用指南,数据基金会,2024年8月28日,https:/datafoundation.org/news/ai/301/301-Data-Policy-in-the-Age-of-AI-A-guide-to-using-Data-for-Artificial-Intelligence.两党众议院人工智能工作组ix一些联邦法律已

    56、经为有效的数据治理政策奠定了基础,包括2018年的循证决策法基础(P.L.115-435)26和1974年的隐私法(P.L.93-579)27(下文将更详细地讨论)。实现负责任地使用人工智能需要消除开发安全有效的人工智能系统的障碍。各机构应采取措施,消除负责任使用人工智能的障碍,同时考虑以下因素。联邦信息系统的现代化联邦信息系统的现代化每年,联邦政府在信息技术和网络安全方面的支出超过1000亿美元。28其中约80%的支出用于运营现有的遗留系统,这些系统通常已经过时,并以过时的软件和硬件组件为基础。29这些遗留系统造成了安全和运营风险,在发生事故时进行维护和补救的成本很高。30解决这个问题并使传

    57、统IT现代化将需要大量资源。这些项目可能需要数年时间,需要大量的前期财务投资,并依赖于在传统和当代技术方面经验丰富的工程师的技术专长。资料来源:美国政府问责局-信息技术:各机构需要制定和实施关键遗留系统的现代化计划通过适当的监督和问责保障措施,联邦政府可能能够利用人工智能采取措施,实现传统联邦IT的现代化,包括“将传统软件自动化迁移到更灵活的基于云的应用程序,或加快大型机应用程序的现代化。”3126联邦公报办公室、国家档案和记录管理局。公法115-435-2018年循证决策法的基础。美国政府出版办公室,2019年1月13日,https:/www.govinfo.gov/app/details/

    58、PLAW-115publ435.27联邦公报办公室、国家档案和记录管理局。第93-579号公法1974年隐私法,美国政府出版局,1974年12月21日,美国政府问责局28号。,GAO-21-524T,“各机构需要制定和实施关键遗留系统的现代化计划”,美国政府问责局,2021年4月27日,29同上。30Id。31Florian Breger和Cristina Caballe-Fuguet,“人工智能和生成人工智能能为政府做什么”,IBM,2024年。https:/ Bafundo,“TMF如何帮助机构利用人工智能”,总务管理局,2024年7月10日,https:/www.gsa.gov/blog

    59、/2024/07/10/how-tmf-is-helping-agencies-harness-artificial-intelligence.34FNMedia Group LLC.网络安全中的人工智能(AI)如何为科技行业创造十亿美元的收入机会。环球通讯社,2024年9月16日两党众议院人工智能工作组xi人工智能在识别、缓解和应对威胁行为者和网络安全事件方面已经发挥着越来越大的作用。35这主要是由于人工智能能够快速处理大型数据集、检测微妙模式和适应新威胁,从而产生“强大的效率和持续学习,补充了人类的能力”,并起到了力量倍增器的作用。36第14110号行政命令指示国土安全部采取多项行动,以提

    60、高安全性、弹性和对关键基础设施的人工智能相关网络安全威胁的事件响应。37它还指示了一项人工智能网络安全挑战,以开发人工智能工具来发现和修复关键软件中的漏洞。38国土安全部网络安全和基础设施安全局还发布了一份人工智能路线图,该路线图“侧重于人工智能、网络防御和关键基础设施的联系,提出了一项全机构计划,以促进人工智能的有益使用,增强网络安全能力;确保人工智能系统免受网络威胁;并阻止恶意使用人工智能能力来威胁美国人依赖的关键基础设施。”39虽然人工智能系统提供了增强网络安全防御和漏洞检测的前景,但我们还不知道这些工具的有效性。例如,模糊测试工具长期以来一直被用来发现软件中的漏洞,40人工智能系统已经

    61、证明了扩大这些工具覆盖范围的能力。41因此,一些网络安全挑战可能会给针对联邦IT系统的不对称攻击带来重大利益,而另一些挑战可能会支持更好地防御这些系统。42需要更多的研究和测试来更好地理解和减轻这些风险,同时促进人工智能防御。35Nikki Henderson,“联邦政府权衡生成性人工智能在网络安全、数据分析中的应用。”政府首席信息官媒体,2024年8月6日,https:/ officials%20 see%20 generative%20AI,information%20 for%20 drive%20 better%20decisions。36Lucia Stanham,“人工智能在网络安

    62、全中的作用”。CrowdStrike,2024年5月10日,https:/ 安全模 糊化。Artech House出版 社,2018年,https:/ Petersen等人,国家网络安全教育倡议(NICE)网络安全劳动力框架(SP 800-181修订版1)。美国国家标准与技术研究所,2020年11月,https:/nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.800-181r1.pdf.64人工智能服务计划奖学金:需求、可行性和实施。美国国家科学基金会,2024,https:/www.nsf.gov/edu/Pubs/2024SFS

    63、AIReport.pdf.招聘政府人工智能工作人员招聘政府人工智能工作人员人工智能行业的职位与联邦政府的职位有着显著不同的招聘途径。例如,虽然该行业可能会改变其招聘方式和激励措施,暂时增加对人工智能工人的招聘,但联邦机构在招聘方面的类似灵活性需要获得批准。这些灵活性可能包括特殊费率、关键薪酬、豁免招聘、搬迁、留用或激励薪酬限制、教育要求以及改变职位头衔或描述以吸引合适的人才。两党众议院人工智能工作组xviiOPM为机构提供了一系列工具,可以更灵活地招聘、雇佣和留住具有宝贵人工智能相关技能的候选人。例如,2022年5月,人事管理局发布了指导方针,鼓励各机构专注于基于技能的招聘,这将通过根据候选人

    64、的技能而不是严格依赖大学学位等技能代理来评估候选人,从而拓宽所有美国人的招聘途径。652024年,OPM还发布了备忘录,支持人工智能员工的薪酬灵活性、激励性薪酬、休假和劳动力灵活性计划,并发布了基于技能的招聘和人工智能工作能力的指导。66继续应对联邦机构在招聘人工智能从业者方面的挑战对于保持强大的联邦人工智能劳动力至关重要。虽然OPM为各机构制定并发布了更有效地雇佣人工智能和人工智能技术人员担任新角色的指导方针,但现有的技术人员招聘途径迅速转向支持第14110号行政命令中启动的人工智能人才激增。美国数字服务(USDS)是总统执行办公室内的一个团队,由200多名高级技术人员组成,帮助各机构建立面

    65、向公众的关键政府服务。自宣布激增以来,该团队已收到3000多份新申请,并聘请了30多名人工智能和人工智能支持专家。67此外,GSA的总统创新研究员(PIF)和美国数字军团(USDC)项目在联邦机构招募和安置高级和早期职业技术人才,收到了2500多份人工智能和人工智能支持职位的申请。2024年,这些项目共聘请了50多名专注于人工智能的研究员。6865人事管理办公室,“新闻稿:人事管理办公室发布基于技能的招聘指南”,2022年5月19日,https:/www.opm.gov/news/releases/2022/05/release-opm-releases-skills-based-hiring

    66、-guidance/.66人事管理办公室,“新闻稿:ICYIMI:OPM强调支持人工智能人才激增的关键行动,以招聘和雇佣人工智能专业人员”,https:/www.opm.gov/news/releases/2024/05/opm-highlights-key-actions-supporting-ai-talent-surge-to-recruit-and-hire-ai-professionals/.67人工智能和技术人才工作组,“提高联邦政府的人工智能能力”,2024年4月,68同上。;另见:美国总务管理局,“总统创新研究员推出了第一批专门研究人工智能的人员”,2024年6月17日,htt

    67、ps:/www.gsa.gov/about-us/newsroom/news-releases/presidential-innovation-fellows-launches-first-cohort-focused-exclusively-on-artificial-intelligence-06172024.另见:美国总务管理局,“GSA宣布新一批美国数字军团研究员”,2024年8月13日,https:/www.gsa.gov/about-us/newsroom/news-releases/gsa-announces-new-cohort-of-us-digital-corps-fell

    68、ows-08132024.两党众议院人工智能工作组xviii主要发现主要发现联邦政府应利用核心原则,避免与现行法律相冲突。联邦政府应利用核心原则,避免与现行法律相冲突。管理联邦政府使用人工智能的政策应与一套集中的核心原则保持一致,以确保各机构在如何处理和使用人工智能方面的协调一致。实施这些原则的指导应建立在现有法律和既定的数据和信息记录、联邦信息技术系统和网络安全、采购和采购、劳动力管理以及绩效和问责制的政策要求之上。然而,各机构应具有灵活性,以制定符合核心原则的、最能满足其需求的人工智能使用政策。人工智能治理还应与人工智能系统或用例的复杂性和风险状况相称。例如,简单的流程自动化和工作流工具不

    69、应要求与访问敏感公共部门数据集的大型语言模型相同级别的系统治理控制。此外,管理机构使用人工智能的政策应提供跨越人工智能生命周期的全面、以运营为重点的指导,以实现高效的机构实施。人工智能系统可以为任务或程序特定的用例提供多个应用程序。政府范围内管理机构使用人工智能的政策应在管理联邦机构数据和IT系统的现有联邦信息政策要求的背景下进行设计,例如既定的隐私和网络安全政策。机构应确定对特定人工智能用例的必要限制,符合适用和现有的法律和监管要求,以及适当的风险考虑水平。联邦政府应该警惕基于算法的决策。联邦政府应该警惕基于算法的决策。政策制定者应该对联邦政府内部“基于算法”的决策持谨慎态度。相反,政府应该

    70、追求“基于算法的”决策支持任务和项目。算法知情决策需要对人工智能系统进行适当的治理,并进行深思熟虑的政策设计,以考虑人工智能系统在某些用例中的固有局限性。国会和机构应该考虑跨用例的基于算法的决策所需的人类参与程度。两党众议院人工智能工作组xix联邦政府应公开通知人工智能在政府职能中的作用。联邦政府应公开通知人工智能在政府职能中的作用。由于人工智能的实施是为了支持联邦机构的工作流程并为决策提供信息,因此向受到机构决定或裁定实质性和有意义影响的个人和实体提供有关人工智能参与的适当通知以及上诉和人工审查的适当追索权至关重要。各机构应关注人工智能系统的基础。各机构应关注人工智能系统的基础。推动采用AI

    71、技术的国会和联邦机构在采用AI技术时应注意网络安全、隐私以及数据和IT基础设施需求。采用基本原理对于确保负责任地采用和使用联邦人工智能技术至关重要。联邦劳动力的角色和相关的人工智能知识和技能不明确,差异很大。联邦劳动力的角色和相关的人工智能知识和技能不明确,差异很大。了解联邦劳动力中所需的人工智能角色将需要一个标准的人工智能分类或劳动力框架。目前,由于人工智能相关角色的性质不断变化和定义不标准,很难对其进行跟踪。这也导致了招聘和聘用具有与相关职位相匹配的技能的人工智能从业者的挑战。定义联邦政府中以人工智能为重点的角色所需的知识和技能至关重要。标准的分类法或劳动力框架可以使人工智能培训计划更好地

    72、与劳动力需求相一致,为联邦政府提供更一致的招聘途径,并改善对联邦政府人工智能技能供需的分析。基于技能的招聘对于满足联邦劳动力对人工智能人才的需求至关重要。基于技能的招聘对于满足联邦劳动力对人工智能人才的需求至关重要。满足美国劳动力的人工智能培训需求将需要开发和建立一个管道,通过追求“上述所有”的方法来满足公共部门的需求。网络安全等技术领域的培训和认证越来越多地通过新兵训练营和证书课程等非传统途径进行,而对传统学位的依赖程度较低。同样,许多人工智能工作岗位可能会由那些通过非传统教育途径接受培训或提高技能的人来填补。来自非传统教育背景的候选人可以满足日益增长的人工智能工作需求,确保正确的招聘途径和

    73、政策(如OPM 2022年5月关于基于技能的招聘的指导)到位至关重要。6969前65条。两党众议院人工智能工作组xx建议建议建议:在联邦政府使用人工智能时,采取信息和系统层面的方法。建议:在联邦政府使用人工智能时,采取信息和系统层面的方法。在制定政府使用人工智能的新法律时,国会应考虑与联邦信息政策、信息安全和网络安全、公共部门数据管理和隐私以及采购有关的现有联邦法律。可能需要采用现有的法律和政策来解决联邦政府使用人工智能引起的新问题。不符合这些政策领域现有信息系统级要求的人工智能政策将存在于联邦信息系统的当前管理结构之外,并可能导致混乱、效率低下、行政或行业负担过重,最终导致法律或政策要求重叠

    74、或相互竞争。例如,管理联邦机构使用人工智能的立法应建立在管理联邦信息政策和安全(美国法典第44篇第35章)或信息技术获取(美国联邦法典第40篇第113章)的现有法律领域之上。必要时,应废除或统一重复或冲突的要求和定义。此外,在处理有关收集私营部门信息或处理公众数据的政策决定时,此类政策应分别在1967年信息自由法(FOIA)(5 U.s.C.552)或1974年隐私法(5U.s.C.552a)等既定法律的背景下制定。最后,应考虑这种政策方法,以适当平衡和协调首席人工智能官的新兴角色与现有的联邦机构首席信息官、首席数据官、首席采购官、首席隐私官等,他们在各自的政策领域保持着既定的角色。建议:支持

    75、人工智能的灵活治理。建议:支持人工智能的灵活治理。人工智能将继续快速发展。有关政府使用人工智能的指导必须足够灵活,以适应新的进步。所有新的法律和政策都应遵守核心原则,优先提供资源,支持各机构有效实施不断发展的标准的持续能力,在政府和机构内部建立明确的权力机构,就未来的人工智能使用做出决定,并促进相关决策者之间的沟通,以确保在可行的情况下实现协调。两党众议院人工智能工作组xxi建议:使用人工智能减少行政负担和官僚主义。建议:使用人工智能减少行政负担和官僚主义。与私营企业一样,联邦政府可以通过利用人工智能使传统IT系统和过时的流程现代化来实现巨大的效率提升。拥有结构良好、高质量数据的政府职能部门可

    76、能会率先实现采用人工智能所承诺的生产力提升。这些职能领域可能包括地理空间分析、财务管理和会计、监管合规和采购工作流程所有这些领域都有既定和受控的工作流程和相关数据管理标准。国会应鼓励各机构优先在具有必要的开放和结构化数据(即可访问、可解释、可控和可解释的数据)的功能领域内采用人工智能,以使人工智能的应用最为成功。此外,国会应向各机构提供足够的资源,投资于符合适用法律的数据管理策略,使更多职能部门能够拥有必要的数据,以促进人工智能系统的适当和准确使用。建议:要求各机构通报人工智能在政府职能中的作用。建议:要求各机构通报人工智能在政府职能中的作用。在考虑政府使用人工智能的立法时,国会应要求机构政策

    77、包括对受联邦机构决定影响的个人或实体的明文通知和上诉程序,这些决定得到了人工智能系统的实质性和有意义的增强。此类政策可以根据有关保护和处理机构控制的个人身份信息(PII)记录的现有法定要求(1974年隐私法(5 U.S.C.552a)制定,并要求在联邦财政援助和公共利益裁决、监管执法和分析以及公众参与和服务提供方面,对机构的决定进行替代性、独立的人工审查。建议:促进并采用人工智能标准供联邦政府使用。建议:促进并采用人工智能标准供联邦政府使用。国会应为联邦机构提供资源,通过参与这些标准活动并在可行的情况下采用共识标准,参与和支持与其任务相关的人工智能相关标准的国际标准制定,如NTTAA和OMB通

    78、告A-119所述。NIST应继续确保其颁布的联邦系统标准与国际标准保持一致。建议:支持建议:支持NISTNIST为联邦人工智能系统制定指导方针。为联邦人工智能系统制定指导方针。国会应支持NIST为采用人工智能系统的联邦机构制定额外的自愿指导和资源,并颁布与其制定和应用联邦计算系统的联邦信息处理标准(FIPS)的权力相一致的人工智能相关标准。例如,NIST应考虑为特定的联邦系统制定人工智能风险管理框架的风险简介。这些标准应遵循现有的联邦程序,并在可行的最大范围内与国际标准保持一致。建议:改善联邦系统的网络安全,包括联邦人工智能系统。建议:改善联邦系统的网络安全,包括联邦人工智能系统。随着政府采用

    79、人工智能系统,网络安全将继续成为联邦信息系统的一个关键政策领域。联邦机构应探索漏洞赏金计划70,使白帽黑客能够发现和报告联邦系统(包括人工智能系统)中的漏洞。在某些情况下,人工智能甚至可能有助于改善联邦安全。国会应审查立法,要求OMB就各机构使用人工智能来改善信息系统的网络安全发布指导。两党众议院人工智能工作组xxii建议:鼓励支持人工智能发展的数据治理策略。建议:鼓励支持人工智能发展的数据治理策略。获取联邦数据将促进人工智能创新,并促进美国在人工智能领域的持续领导地位。为了实现这一目标,各机构的政策必须符合适用和现有的法律和监管要求。国会应继续支持公众获取联邦数据,包括统计数据。国会应调查支

    80、持OMB实施2018年循证决策法案的机会,并扩大人工智能开发的数据获取。例如,国会可以探索如何支持联邦机构建立人工智能就绪的数据存储库,确保标准化的文档和格式,并遵守适用的法律。此外,根据CHIPS和科学法案授权的国家安全数据服务试点项目的结果,国会应探索立法以支持该服务的全面实施。最后,国会应探索立法,支持在不同用例中开发和演示隐私增强技术。70一种补偿个人报告可能允许安全利用或漏洞的软件错误、缺陷或故障(“bug”)的方法。参见:KimSchaffer等人,“联邦漏洞披露指南建议”。国家标准与技术研究所,2023年5月,https:/nvlpubs.nist.gov/nistpubs/Sp

    81、ecialPublications/NIST.SP.800-216.pdf.两党众议院人工智能工作组xxiii建议:国会和政府必须了解联邦政府的人工智能劳动力需求。建议:国会和政府必须了解联邦政府的人工智能劳动力需求。随着各机构根据政府人工智能法案实施人事管理局的人工智能分类政策和人才招聘指南,国会应随时了解其进展,并确保人事管理局了解并满足机构人工智能劳动力的需求。71为了提高对网络安全角色的技能和能力的理解,国会通过了2014年的网络安全增强法案(P.L.113-274),随后通过了2020年的黑客行为法(P.L.116-283,作为2021财年威廉M桑伯里国防授权法案的一部分)。在其他网

    82、络安全教育相关活动中,这些法案指示NIST创建和更新网络安全劳动力框架,帮助创建标准化的工作类别、角色、任务和能力领域。72科学、空间和技术委员会应探索立法,以提高对人工智能相关角色的理解和标准化,特别是那些专注于人工智能治理的角色,包括支持联邦政府的职业道路。建议:支持人工智能人才通过不同途径进入联邦服务。建议:支持人工智能人才通过不同途径进入联邦服务。国会应研究如何激励人工智能工作者加入联邦劳动力队伍,包括支持网络兵团服务奖学金计划,创建人工智能服务奖学金计划以及继续支持联邦机构中人工智能角色的发展。71前60条。72国家网络安全职业和研究倡议(NICCS):NICE框架。网络安全和基础设

    83、施安全局,2024年3月,https:/niccs.cisa.gov/workforce-development/nice-framework.两党众议院人工智能工作组xxiii背景背景优先购买权影响联邦政府和各州之间的权力分配。联邦-州优先购买权起源于美国宪法的最高条款:第六条第2.1款最高条款规定,宪法、根据宪法制定的联邦法律和根据宪法授权制定的条约共同构成国家的最高法律。因此,联邦法律优先于任何相互冲突的州法律。联邦立法优先于州人工智能法律是国会可以用来实现各种目标的工具。然而,联邦优先购买权提出了应该考虑的复杂的法律和政策问题。优先购买权中的法律问题优先购买权中的法律问题由于优先购买权

    84、划定了联邦当局取代州立法的界限,因此需要进行法律分析,以了解优先购买权生效的情况以及州法律被取代的程度。必要的法律分析可能涉及对联邦立法中具体文本的考虑、国会的意图以及适用的联邦和州监管制度之间的相互作用。1“本宪法以及为执行本宪法而制定的美国法律;以及在美国权力下制定或将制定的所有条约,应为美国的最高法律;各州的法官应受其约束,尽管任何州的宪法或法律中有任何相反的规定。”美国宪法:抄本。国家档案馆,www.Archives.gov/founding-docs/constitution-recript。两党众议院人工智能工作组xxiv许多法院判决决定了联邦法律如何优先于州法律以及优先权适用的情

    85、况。围绕联邦-州优先购买权的其他法律问题涉及联邦政府和州政府之间的权力平衡,以及不同级别政府之间可能出现的潜在冲突和不一致。优先购买权的适用性联邦法规规定的优先购买权可以是明示的,也可以是默示的。当国会行使其宪法权力在特定领域进行监管时,它可以在立法中明确表示,它是否打算让联邦法律优先于或凌驾于州法律之上。此外,即使立法没有明确说明其优先权的意图,立法的结构和目的或法院对法律的解释也可能暗示联邦优先权。联邦法律凌驾于州法律之上有多种形式。根据不可能优先权原则,如果不可能同时遵守联邦和州法律,联邦法律将优先于冲突的州法律规定。2同样,障碍优先权优先于任何可能阻碍联邦立法目标的州法律。资料来源:国

    86、会研究服务部-联邦优先购买权:法律入门2Jay Sykes和Nicole Vanatko,国会研究服务部,“联邦优先购买权:法律入门”,国会研究服,2019年7月23日,https:/crsreports.congress.gov/product/pdf/R/R45825/1.两党众议院人工智能工作组xxvi优先购买权的范围受立法约束的领域在多大程度上被州法律所取代尚不清楚。当联邦立法没有明确规定优先购买权时,优先购买权的确切范围尤其模糊。当联邦法规中没有明确的优先购买权条款时,法院必须确定国会是否打算隐含地优先于州法律。确定联邦优先购买权的范围和解决联邦和州法律之间的冲突在法律上可能是复杂而

    87、耗时的,需要解释许多法规、条例和法院判决。此外,国会或州立法机构在明确优先购买权的情况下选择的语言可能会使优先购买的程度不明确。例如,法院一直在努力解释诸如州法律“与”或“涵盖”某些主题或优先于州“要求”与“法律”等短语最后,人工智能没有普遍的法律定义。3如果国会选择优先于州人工智能法律,那么优先立法应该以代表优先权预期范围的方式准确定义人工智能。监管权一个重要问题是确定哪个级别的政府有权监管立法所代表的特定领域。宪法列举了国会立法的领域,第十修正案将未授予联邦政府的权力保留给各州或人民。当联邦和州政府在同一问题上都主张自己的权力时,可能会引发管辖权冲突和法律纠纷,需要根据适用的法律先例进行司

    88、法解决。优先购买权中的政策问题优先购买权中的政策问题围绕联邦-州优先权的突出政策问题围绕着国会的目标以及为实现这些目标而采取的具体立法方法。3见人工智能定义挑战附录均匀性联邦优先购买权可以促进全国法律法规的统一。统一性可以使在多个州经营的企业和个人受益,因为它建立了一种一致的合规方法。如果没有统一的方法,不同的州可能会采用不同的、模糊的、甚至相互冲突的监管要求,这些要求由不同的州机构执行。这种脱节的系统可能会造成全国各地的企业难以遵守的障碍,因为他们被迫与众多州立法者和机构接触。即使没有颁布适用的州法律,统一的好处也可以适用。例如,几个相互冲突的州法规的可能性可能会阻止企业进行可能被后来的法规

    89、淘汰的投资。两党众议院人工智能工作组xxvii灵活性和定制联邦优先购买权的一个缺点是其国家适用性。国家法规可能是为了应对杨树的不同需求和偏好而制定的。联邦先发制人的统一性可能会限制一个州根据其民众的政治意愿制定法律的能力。允许各州在联邦标准之外就特定主题制定立法,也可以灵活应对不断变化或不可预见的情况。国家实验当关于不同监管方法的相对优势、劣势和成本的全面信息未知或不清楚时,可以通过允许不同州采用不同的方法来获取。这些州级“实验”可以比联邦政府循环一系列不同的监管方法更快地提供这些信息。然而,州级实验可能是繁重的、昂贵的,或者发生得不够快。相关专业知识信息在制定知情和全面的政策方面很有价值。由

    90、于各自的专业水平,联邦或州政府可能更有能力理解监管一个领域的后果。联邦机构可能拥有各州所缺乏的经验和资源。例如,各州缺乏国防部在国家安全问题上的专业知识。相反,由于在该州的长期经验或相关行业存在,州政府可能会得到更好的信息。学习期间暂停解决信息稀缺的另一种方法是联邦政府颁布一项暂停令,禁止州活动,直到在学习期间获得必要的信息。学习期并非没有风险,在某些情况下,学习期已经无限期延长,实际上成为联邦对适用领域的优先权。两党众议院人工智能工作组xxviii根据国家规定建立地板和天花板联邦优先购买权可以建立允许某些州监管的下限和上限。联邦法律可以通过要求各州必须达到的最低标准和基线保护来设定“最低标准

    91、”,同时允许各州选择超过这些最低标准。这确保了所有州都符合基本标准,同时允许灵活采用更严格的法规。健康保险流通与责任法案(HIPAA)是规定最低限额的立法的一个例子。4联邦立法同样可以通过阻止各州实施比联邦法律规定的更严格的要求来设定“上限”。实施监管上限的立法的一个例子是E-SIGN法案,5该法案为所有数字签名制定了标准,或欧洲的通用数据保护条例(GDPR)。6虽然E-SIGN法案等立法规定了国会对如何监管某一领域的愿景,但即使国会不监管该领域,联邦立法也可以设定上限。联邦立法只能优先于特定类型的州法规,而不提供任何附带的法规(例如,在学习期暂停期间)。执行权优先于各州制定自己法律的联邦法律

    92、仍可能允许这些州的总检察长(AG)执行联邦法律中的规定。例如,儿童在线隐私保护法(COPPA)优先于州和地方政府通过法律,为该法案规定的活动增加额外责任。然而,COPPA使州AG能够根据其管辖范围内的COPPA规则寻求损害赔偿或其他救济。7联邦政府对互联网技术的优先购买权联邦政府对互联网技术的优先购买权考虑一下联邦政府抢占另一项重要技术互联网的历史可能会有所帮助。联邦通信委员会(FCC)试图在其管辖范围内优先于州宽带法律,以控制州际通信。然而,这种优先购买权的确切界限仍在积极诉讼中。4联邦公报办公室、国家档案和记录管理局。第104-191号公法1996年健康保险流通与责任法案。美国政府印刷局,

    93、1996年8月20日,https:/www.govinfo.gov/app/details/PLAW-104publ191.5美国众议院。美国法典第15篇:商业和贸易,第96章知识产权保护,Govinfo,uscode.house.gov/view.xhtml?路径=/prelimtitle15/第96章&版本=序言。6“通用数据保护法规信息门户”。GDPR-Info.eu,https:/gdpr-info.eu/.7美国众议院。美国法典第15篇:商业和贸易,第91章:隐私保护。政府信息,https:/uscode.house.gov/view.xhtml?path=/prelim标题15/第

    94、91章&版本=序言。两党众议院人工智能工作组xxix美国联邦通信委员会(FCC)一直在努力解决其权力范围,以根据联邦法律对宽带互联网接入服务的分类,优先于有关此类服务的州法律。当这些服务根据通信法第I篇被归类为监管较轻的“信息服务”时,8联邦通信委员会认为,这允许联邦优先于可能实施更严格监管的州法律。然而,不确定性依然存在。例如,在Mozilla诉FCC9案中,华盛顿特区巡回法院等法院质疑第一篇分类是否为优先于州网络中立性法律提供了足够的法定依据。此外,联邦通信委员会还试图优先于限制市政宽带网络的州法律。电信法第253条禁止可能限制任何实体提供“电信服务”能力的州法律。在尼克松诉密苏里州市政联

    95、盟案中,10最高法院狭义地解释了第253条,认为它并不优先于限制市政当局直接向消费者提供宽带服务的州法律。最后,美国联邦通信委员会试图通过抢先实施被视为禁止性的州和地方法规来加快5G无线基础设施的部署。2018年,美国联邦通信委员会限制了地方政府对小型基站部署收取的费用,并对批准实施了“打卡钟”,所有这些都优先于其法定权力下对州际服务的冲突州法律。11,12美国法典第8章第47节第1-646条。美国众议院。美国法典第47篇:通信https:/uscode.house.gov/view.xhtml?path=/prelimtitle47&版本=预印本9Mozilla公司诉联邦通信委员会,联邦地区

    96、法院判例汇编第940卷第3期第1页(哥伦比亚特区巡回法庭,2019年)。10尼克松诉密苏里州市政联盟案,美国最高法院判例汇编第541卷第125页(2004年)。11Chris Linebaugh,美国国会研究服务部。“联邦通信委员会关于小蜂窝选址的5G命令的法律挑战概述”,2019年2月,https:/crsreports.congress.gov/product/pdf/LSB/LSB10265.12美国诉Vasquez Alvarez案,第九巡回法院(2020年)。两党众议院人工智能工作组xxx主要发现主要发现联邦政府在人工智能问题上优先于州法律是复杂的。联邦政府在人工智能问题上优先于州法

    97、律是复杂的。优先购买权引发了许多法律和政策问题,应该加以考虑和解决,以便国会有效地实施其既定政策。部署人工智能的环境对其治理至关重要。人工智能系统的功能目的、开发方式、部署方式以及与之交互的人员都将影响政府为尽量减少危害而制定的规章制度。一个部门使用的普遍适用的基础模型可能需要与另一个部门部署的相同系统不同的法规。因此,国会在考虑任何针对人工智能或相关技术的法律中的优先权时,将需要权衡许多不同的因素。联邦优先购买权有利有弊。联邦优先购买权有利有弊。联邦对州法律的优先权可以带来统一性和清晰度,减轻合规负担,并以其他方式实现国会的政策目标。然而,州级监管具有灵活性、针对不同州人口进行定制、维护国家

    98、权威以及提供与政策选择相关信息的实验等优点。优先购买权可以允许州政府采取行动,但须遵守最低或最高限额。优先购买权可以允许州政府采取行动,但须遵守最低或最高限额。联邦优先购买权可以允许各州通过符合联邦最低标准或不超过联邦最高标准的法律。这种优先购买权可以在同一地区建立或不建立相应的联邦监管制度。优先购买权可以是多方面的。优先购买权可以是多方面的。对国家人工智能监管的优先权可能是多方面的。例如,联邦政府可以先发制人,但不能先发制人,对一个域名进行某些类型的州监管。同样,联邦政府可以明确允许对某个域名进行某些类型的州监管,但不能允许其他类型的州管理。定义必须符合目的。定义必须符合目的。人工智能没有通

    99、用的定义,偶尔被视为许多行业中存在的通用技术类别。对所涵盖的“人工智能”的定义过于宽泛或过于狭隘,可能会将高风险系统排除在监管之外,或者意外地引入电子表格和拼写检查器等常见技术。如果国会选择优先于州人工智能法律,那么优先立法应该准确地定义人工智能,以代表优先权的预期范围。两党众议院人工智能工作组xxxi建议建议建议:研究跨部门适用的人工智能法规。建议:研究跨部门适用的人工智能法规。为了更好地了解法律对这项通用技术的影响,国会应委托进行一项研究,分析影响各部门人工智能系统开发和使用的适用联邦和州法规和法律。这样的研究应该分析哪些现有的法律、立法和行政政策是技术中立的,但涵盖了人工智能系统。此外,

    100、这样的研究可以帮助政策制定者更好地理解现有的法规和先发制人的规定。背景背景随着人工智能系统积累和分析大量数据,未经授权访问私人信息的风险越来越大。训练算法识别数据中的模式,并生成一组指令或一个可用于新数据的模型。1人工智能模型通常在各种数据集上进行训练,这些数据集包括书籍、网站和其他数字来源的文本,其中一些可能包含个人或敏感信息。人工智能系统也可以部署在依赖敏感数据的敏感环境中,包括医疗保健环境。当用户与某些人工智能系统交互时,尤其是生成式人工智能系统,他们可能会无意中泄露人工智能存储和处理的私人或机密信息。每种情况都引发了人们对人工智能相关数据隐私挑战的严重担忧。深思熟虑且有效的数据隐私政策

    101、和保护措施将增强消费者对人工智能系统负责任开发和部署的信心。虽然众议院人工智能工作组一直在努力在人工智能的背景下审查数据隐私,但有必要进一步探讨这个问题。对数据隐私拥有管辖权的委员会应继续投入时间和资源来审查这些问题,并为美国人民提出解决方案。先进的人工智能系统需要越来越多的数据先进的人工智能系统需要越来越多的数据如果用于训练的数据太小或质量差,模型可能会表现不佳。使用来自多个不同来源的大量数据通常可以使训练好的模型表现更好。两党众议院人工智能工作组xxxii1埃莉诺塔斯曼等人,“AI 101-阿斯彭数字”,阿斯彭数字,2023年6月20日,www.aspendigital.org/repor

    102、t/AI-101/#第2节。两党众议院人工智能工作组xxxiii根据一些研究,较大的训练数据集可以显著提高算法的性能。2,3在此后的几十年里,可用于训练算法的数字数据量急剧增加。4可以肯定的是,越来越多的研究表明,较小的数据集也可能在提高人工智能性能方面发挥作用。5可用于训练AI模型的数据以各种方式收集和许可。一些公司使用内部和外部数据的组合。6其他公司,如部署大型语言模型(LLM)和基础模型的公司,主要依赖从互联网获取(“抓取”)的数据。网络抓取是从互联网复制数据的过程。一些公司对抓取的数据进行打包、处理和标记以供销售,而另一些公司则发布开源数据集。7许多网站使用了一个自愿标准来表明它们不应

    103、该被抓取,其他公司也在其服务条款中添加了这样的规定。不幸的是,这些明确提出的要求往往被忽视8,涉及人工智能公司的抓取问题引发的纠纷和诉讼越来越多。来源:人工智能多元研究-人工智能和机器学习的六大数据收集方法2班科、米歇尔和埃里克布里尔。“扩展到超大型语料库进行自然语言消歧”。ACL选集,2001,aclantology.org/P01-1005.pdf。3Kaplan、Jared等人,“神经语言模型的缩放定律”,arXiv,2020年1月23日,https:/arxiv.org/abs/2001.08361.4罗德德、塔尔和彼得斯拉特里。“是什么推动了人工智能的进步?数据的趋势。”Future

    104、Tech,2024年3月19日,FutureTech.mit.edu/news/What-Drives数据中的进步。5Li,Kangming,et al.“利用大型材料数据集中的冗余,以更少的数据实现高效的机器学习。”NatureCommunications,2023年11月10日,https:/ made to mates/why-外部数据-应该成为你的数据。7Newman、Marissa和Aggi Cantrill。“高中教师的免费图像数据库为艾独角兽提供动力。”彭博社,2023年4月24日,www.B Companies-quitely改变你的技术服务-可能是不可靠的或具有欺骗性的。15

    105、“差异隐私概述”。苹果公司,2017年11月2日,16“采访Andrew Trask,探讨语言模型应如何存储(和访问)信息。”互联,2024年10月10日。www.interconnects.ai/p/interviewing-andrew-trask。17徐,塔米。“我们可能会耗尽数据来训练人工智能语言程序。”麻省理工学院技术评论,2022年11月24日, Gravatt是明尼阿波利斯公立学校网络攻击中数千名儿童数据被盗的父母之一。她锁定了他们的信用账户,但仍然很担心。情绪伤害是由于在未经某人知情或同意的情况下发布有关某人的信息而导致的情绪困扰造成的。这些危害构成了许多隐私侵权行为的基础,如

    106、侵入隔离、侵入等。18IBM。“什么是合成数据?”IBM,2024年,www.IBM.com/topics/Synthetic-Data。金博泽拉19号。“使用合成数据训练人工智能的利弊。”福布斯,2023年11月20日,www.F Dowey是“sextortion”的目标,这是一种基于暴露其亲密图像的威胁的在线勒索。Dowey今年早些时候悲惨地自杀了。21歧视的危害包括基于性别、种族、年龄、宗教或政治派别等特征使人们处于不利地位。它们可以阻碍人们获得工作、获得保险和找到住房的能力。自主性损害涉及颠覆或损害个人的自主性。例如,一些不良行为者使用“黑暗模式”或设计特征来欺骗或操纵用户。人工智能

    107、系统加剧了隐私损害的例子有很多。合成内容可能会在未经他人同意的情况下复制其吸引力。面部识别系统可以实现对公共场所人员的普遍跟踪。人们发现,如果配置不当或保护不当,先进的人工智能系统,如LLM,会无意中泄露个人身份信息。22此外,人工智能系统已被证明可以推断出有关某人的敏感信息,23甚至可以从合法获得和去身份化的数据中推断出来,24在某些情况下会无意中透露个人属性,如政治观点或性取向。在一个案例中,一家大型零售商的系统预测到一名购物者怀孕了,并意外地将这一信息透露给了她的父亲。25美国的隐私保护各不相同美国的隐私保护各不相同目前,美国还没有全面的联邦数据隐私和安全法。然而,有几项联邦隐私法侧重于

    108、各个部门或用例,如儿童隐私或健康信息。各国也采取了行动。迄今为止,美国已有19个州颁布了各自的州隐私法,其标准各不相同。2621Chigozie Ohaka等人,。“家长们说,停止用性扭曲恐吓儿童。”英国广播公司,2024年11月。https:/ al.“关于保护大型语言模型(LLMs)的数据隐私:一项调查”,arXiv,2024年3月8日,arXiv.org/abs/243.05156。23Cre#u、Ana Maria等人。“即使在很长一段时间内,交互数据也是可识别的。”自然通讯,2022年1月25日,https:/ al.“使用机器学习从已删除受保护健康信息的大型国家体育活动数据集中重新

    109、识别个人的可行性。”JAMA Network Open,2018年12月21日,https:/ NDAA(P.L.117-81)第1118节,数字职业领域职业系列。选择国防部人工智能史选择国防部人工智能史国防高级研究计划局(DARPA)DARPA自20世纪60年代以来一直在进行人工智能研究。7其研究是自动驾驶汽车和自然语言处理(NLP)等广泛技术的基础,也是苹果Siri(PAL,Leans个性化助手程序)等常用人工智能应用程序的基础。82018年,DARPA启动了AI Next,这是一项耗资20亿美元的多年期活动,重点是自动化国防部业务实践,提高人工智能的稳健性和可靠性,并增强人工智能的安全性

    110、。9DARPA目前有多个正在进行的人工智能研究项目,包括人工智能网络挑战赛(AIxCC),这是一项与Open AI、Anthropic、谷歌和微软等多家人工智能公司以及Linux基金会、开源软件基金会、DEFCON和黑帽美国等民间社会团体合作进行的奖励挑战赛。AIxCC决赛选手开发了开源人工智能,可用于保护人工智能免受各种网络攻击,并改善人工智能在防御网络攻击方面的使用。105联邦公报办公室、国家档案和记录管理局。公法116-283-2021财年威廉M(Mac)桑伯里国防授权法案。美国政府出版办公室,2020年12月31日,https:/www.govinfo.gov/app/details/

    111、PLAW-116publ283.6联邦公报办公室、国家档案和记录管理局。第117-81号公法2022财年国防授权法案。美国政府出版办公室,2021年12月26日,7国防高级研究计划局(DARPA)。国防高级研究计划局。8同上。9国防高级研究计划局(DARPA)。“AI Next Campaign”。美国国防部高级研究计划局,https:/www.darpa.mil/work-with-us/ai-next-campaign.10国防高级研究计划局,“DARPA人工智能网络挑战证明了人工智能驱动的网络安全的前景。”国防高级研究项目局,2024年8月11日,https:/www.darpa.mil

    112、/news-events/2024-08-11.负责任的人工智能2012年,国防部发布了首个人工智能负责任使用政策,随后又通过了其他人工智能伦理原则。112021年,国防部将发布了负责任人工智能(RAI)战略和实施路径,详细说明了根据部署指南和使用标准利用人工智能的框架。12该文件还概述了国防部将如何在适当两党众议院人工智能工作组xlii程度的人为监督和干预下开发和部署人工智能。RAI的五项原则确立了人工智能应该是负责任的、公平的、可追溯的、可靠的和可管理的。13Maven项目Maven项目通常被认为是国防部首次大规模使用人工智能,它自动分析了情报、监视和侦察平台收集的全动态视频。14尽管在早

    113、期存在一些障碍,但Maven相关技术已经成熟。2023财年初,国防部将Maven项目(包括标记数据、人工智能算法、测试和评估能力以及平台本身的管理和责任)移交给了国家地理空间情报局(NGA)。15首席数字和人工智能官首席数字与人工智能官(CDAO)成立于2021年,是国防部负责加强和整合数据、人工智能和数字解决方案的高级官员。16CDAO负责联合人工智能中心(JAIC)、国防数字服务(DDS)和首席数据官(CDO)。该办公室的既定任务是“加快国防部将数据、分析和人工智能从董事会应用到战场,以实现决策优势。”11国防部。“国防部通过人工智能伦理原则。”美国国防部,2020年2月24日,https

    114、:/www.defense.gov/News/Releases/release/article/2091996/dod-adopts-ethical-principles-for-artificial-intelligence/.12美国国防部。国防部负责任的人工智能战略和实施途径。2022年6月,13前11条。14美国国防部副部长备忘录,“建立算法战跨职能团队(Maven项目)”,2017年4月,15内森斯特劳特。“情报局接管了五角大楼的标志性人工智能计划Maven项目。”C4ISRNET,2022年4月27日,https:/ Lin.“认识Advana:国防部如何解决其数据互操作性挑战”。

    115、政府技术内幕,2021年4月7日,https:/ DAGIR(政府所有的开放数据和应用程序互操作存储库)的新倡议。18这个多供应商生态系统将使行业和政府能够整合数据平台和开发工具/环境,同时保护政府数据所有权和行业知识产权。CDAO的这些和其他正在进行的努力仍然是为在国防部范围内扩展AI/ML建立必要基础的关键。关于人工智能的国家安全备忘录2024年10月,拜登政府发布了一份关于人工智能的国家安全备忘录。19国家安全备忘录做出了几项政策改变,包括将竞争对手国家对国内人工智能公司的行动作为首要情报优先事项,支持评估人工智能系统的活动,以及支持以符合美国价值观和人权的方式将人工智能系统用于国家安全

    116、任务的活动。人工智能研究与开发人工智能研究与开发陆军部陆军利用和集成AI/ML来识别、评估和优先考虑威胁,并促进快速决策。陆军打算整合AI/ML,以加强情报行动、预测性维护、人才管理以及指挥和控制等用例。陆军的移动协作和自主传感器辅助威胁识别(ATR-MCAS)项目设计和开发了AI/ML机动算法,使自主地面和空中车辆能够感知环境,实现车辆之间的协作,并在侦察任务中聚合和分发大量目标数据。2018美国国防部。“CDAO宣布扩展数据、分析和人工智能能力的新方法。”美国国防部,2024年5月30日,https:/www.defense.gov/News/Releases/Release/Articl

    117、e/3791829/cdao-announces-new-approach-to-scaling-data-analytics-and-ai-capabilities/.19白宫,“关于推进美国在人工智能领域的领导地位;利用人工智能实现国家安全目标;促进人工智能的安全、安保和可信度的备忘录。”白宫。2024年10月24日,20Patrick Ferraris,“未来战场的辅助探测”。美国陆军,两党众议院人工智能工作组xlv2023年9月8日,宾夕法尼亚州匹兹堡国际机场航空储备站,地面控制站为自主检查无人机绘制飞行路径。来源:DARPA旨在开发战斗机可以信赖的人工智能和自主应用海军部海军研究办公

    118、室(ONR)正在整合人工智能,以优化任务规划、监控海军平台和预测可能的敌方行动路线。21ONR还整合了人工智能,为分布式海上作战提供智能自主系统(IAS)。目标是展示IAS的机动性和团队合作,并在战术相关范围内评估杀伤链,而不依赖于易受攻击的指挥和控制系统。Minerva项目利用人工智能优化杀伤链(包括传感器、舰船和武器)的分配和位置,以更好地平衡海军的进攻和防御态势。美国海军陆战队正在利用人工智能开发通用作战图,增强态势感知,并通过推断对抗意图和识别常见情报和战术场景中的模式来为指挥决策提供信息和支持。21美国海军,海军研究办公室。海军研究办公室。https:/www.onr.navy.mi

    119、l/.两党众议院人工智能工作组xlvi空军部空军的基础研究项目调查了智能人机决策的科学原理和算法,以实现基于机器的未来作战空间网络。空军(USAF)和太空部队(USSF)也在寻求利用人工智能/机器学习来支持更快的材料开发和材料科学问题的表征建模;自动化多传感器数据开发、信息处理和数据融合;发展网络化协同自主武器技术;在复杂的对抗环境中支持和执行行动。“今夜战斗”项目旨在开发和展示基于人工智能的军事规划能力,以建立、评估和采用具有在竞争激烈的环境中的同伴冲突中取得决定性优势所需的速度和规模的战斗力。2024年6月,空军部首席信息官与空军研究实验室合作,宣布了一系列举措,在预先确定的保障措施范围内

    120、负责任地试验生成人工智能。这些努力统称为“NIPRGPT”,旨在建立美国空军和美国空军的有机能力,并为私营部门合作伙伴展示新技术和军事应用的新用例提供试验场。22DARPADARPA目前有几项举措侧重于为任务领域开发和集成人工智能,包括空间域感知/数据融合、无人系统在军事相关环境中的自主机动、对抗性人工智能的防御以及检测人工智能生成内容(“deepfakes”)的算法。此外,DARPA还与空军和工业界协调,利用人工智能自主驾驶F-16战斗机。2023年,DARPA推出了AI Forward,旨在探索人工智能的新方向,以确保可信赖的军事系统。23AI Forward汇集了私营部门、学术界和政府,

    121、以确定DARPA未来的人工智能重点领域和探索机会。该倡议还利用独特的融资机会和简化的承包流程,快速应对新兴的人工智能研究挑战,并确保当前和未来人工智能系统的可信度。问题问题人工智能在国家安全领域的发展面临着技术和非技术障碍。22VADM罗伯特夏普,“地理情报:情报的基础”。2022年4月25日。https:/www.nga.mil/news/Remarks_as_prepared_for_delivery_by_Vice_Adm_Rober.html.23国防高级研究计划局(DARPA)。“人工智能前进”。美国国防部高级研究计划局,https:/www.darpa.mil/work-with-

    122、us/ai-forward.技术挑战分为以下几类:数据、基础设施/计算、算法和模型保护以及人才。所有这些都两党众议院人工智能工作组xlvii应该被视为不同于国防部和行政部门需要做出相应努力以确保人工智能得到适当利用的额外机构问题。数据数据、分析和人工智能在国防战略中概述的国防部所有四个优先事项中都发挥着重要作用。24它们构成了支撑国防部作战和业务分析的核心能力,以及支持国防部长“保卫国家”、“照顾我们的人民”和“通过团队合作取得成功”等优先事项的决策。数据、分析、人工智能也是执行联合作战职能,特别是CJADC2的核心能力。然而,增加数据使用的具体障碍包括以下内容:国防部仍在使用大量遗留系统。由

    123、于各种原因,其中一些系统的位置使得更换或升级变得困难。例如,一些遗留系统位于船舶或卫星上,而另一些则用于风险容忍度低的关键技术。传统系统可能会使用人工智能无法使用的过时格式的数据。数据经常没有标记,因此无法用于训练人工智能算法。数据所有权不明确,或国防部不拥有相关数据。承包商可能拥有数据,但不会将其用于训练算法。出于程序或分类的原因,国防部和各军种的许多项目都是孤立的,阻碍了人工智能应用程序数据的可访问性和可用性。数据容易通过中毒或有目的的插入或删除来攻击,恶意更改算法或模型。24美国国防部。2022年国防战略、核态势评估和导弹防御评估。2022年10月,https:/media.defens

    124、e.gov/2022/Oct/27/2003103845/-1/-1/1/2022-NATIONAL-DEFENSE-STRATEGY-NPR-MDR.pdf.两党众议院人工智能工作组xlviii基础设施/计算基础设施必须满足某些作战标准,以支持国防部的人工智能工作。为了在整个国防部企业中部署人工智能,特别是在作战和边缘部署,需要足够的基础设施以作战相关性所需的速度传输数据。在冲突中,特别是在印度洋-太平洋作战地区,由于缺乏适当的基础设施或计算能力,或者过度依赖易受攻击的基础设施(如海底电缆或卫星),作战人员对人工智能的使用可能会受到限制。人工智能算法与模型保护算法和模型必须抵御各种攻击,这些

    125、攻击在国防部部署时可能会使它们无效或有害。算法和模型可以被有意或无意地操纵,使其无效、无用或不准确,从而可能危及人类生命。CDAO与人工智能系统的数据所有者和最终用户密切协调,正在制定指导原则,以确保国防部组件和供应商管理人工智能训练数据、算法和训练模型的整个生命周期。这种控制将有助于使由此产生的人工智能系统安全,并能够抵御恶意国家和非国家行为者的攻击、操纵或滥用。国防部的供应链保证和测试评估活动对于保护人工智能数据、算法和模型至关重要。硬件和软件供应链中的漏洞,包括我们的供应商基础,可以为对手提供针对国防部人工智能能力的攻击媒介。CDAO正在与负责采办和维持的国防部副部长办公室(OUSD A

    126、&S)、DARPA、国防后勤局(DLA)、各军种和军事部反情报组织合作,对人工智能供应链风险评估进行原型化,并建立利用数据识别和优先考虑供应链威胁的最佳实践。硬件和软件供应链免受国防部供应链风险管理分类法定义的风险范围内的威胁。人才实现人工智能的全部好处需要一支精通各种技术和分析技能的员工队伍。国防部必须与私营部门竞争开发、使用和部署人工智能用于军事应用所需的技术人才。国防部还必须确保对其员工进行充分的培训,以了解如何最好地将人工智能用于军事用例,确保人工智能在整个部队中的道德应用,并将人工智能系统集成到传统平台中。两党众议院人工智能工作组xlix机构国防部在获取和使用人工智能方面面临着组织挑

    127、战。采购专业人员、高级领导和作战人员往往对采用新的创新技术及其相关的失败风险犹豫不决。国防部在测试和整合人工智能和其他创新技术时,必须将这种心态转变为更加接受失败。它还需要一支了解人工智能及其对军事系统影响的采购团队。这些员工必须了解人工智能系统和软件的最有效获取途径。在国防部采购和扩展新能力可能需要数年时间,而人工智能和其他以软件为中心的技术通常在更短的时间内迭代。为了避免技术过时问题,国防部必须加快其规划、编程、预算和执行(PPBE)周期及其采购时间表,以确保人工智能技术在采购后保持相关性和最新性。与此同时,人工智能的发展速度超过了为其负责任的使用制定和采用相关政策的速度。国防部必须确保适

    128、当更新政策,以反映技术不断变化的性质及其对战争的影响。非技术挑战非技术挑战包括人工智能开发带来的风险,尤其是具有先进功能的人工智能。由于国防部不控制第三方的人工智能开发过程,因此由此产生的人工智能假设、可靠性阈值、用例、目的和能力可能不适合国防部的使用。外部人工智能的发展也限制了国防部保护技术免受对手(包括民族国家和个人行为者)攻击的能力。尽管美国致力于以道德和负责任的方式发展人工智能,但许多其他方面却没有。最后,当代人工智能能力的新颖性使得预测和解决它如何被用于伤害变得更加具有挑战性。双重用途人工智能市场主要由传统国防工业基地以外的商业利益驱动。国防部必须利用这一新兴的私营部门和相关资本市场

    129、,激励行业开发有利于作战人员的解决方案。这将要求国防部与非传统国防承包商更及时地大规模采购人工智能解决方案。与此同时,工业界还必须努力确保国防部相关数据和算法得到充分保护。两党众议院人工智能工作组l来源:Axios-中国发明家的专利申请首次通过美国许多人工智能应用程序具有双重用途,因为它们的多功能性和广泛的功能允许它们用于民用和军用。由于商业部门广泛使用这种两用技术,国防部极难限制对手对这些技术的获取。因此,国防部必须能够使用和防御两用人工智能。中国投资与道德人工智能标准美国的对手正在开发极其先进的人工智能模型、工具和应用程序,并广泛参与全球人工智能研究和出版物。中国共产党(CCP)表示,中国

    130、打算到2030.25年成为人工智能领域的世界领导者中国在全球人工智能活力方面排名前三。26在几个类别上,包括人工智能专利申请数量、期刊出版物和期刊引用数量,中国都领先于美国。据估计,中国蓬勃发展的人工智能行业每年可以创造超过6000亿美元的经济价值。27保罗莫祖尔25号。“中国的人工智能繁荣”,纽约时报,2017年7月20日,https:/ al.“中国人工智能的下一个前沿可能会为其经济增加6000亿美元。”麦肯锡公司,2022年6月7日,www.McK new extrontier for AI in China可能会为中国经济增加6000多亿美元。两党众议院人工智能工作组li除了这些经济影

    131、响外,中国共产党还为中国人民解放军制定了一项创新战略。这一战略的一个组成部分是将人工智能军事化用于下一代作战,从而获得对美国等国家的军事优势。中国在人工智能方面的成功部分归功于其专制政权下政府可用的大量数据集。该国拥有大量可用于持续训练人工智能模型和算法的标记数据集。28为了使美国在人工智能发展方面领先于中国,它必须开发更好的方法来大规模标记大量数据。虽然美国对人工智能的道德发展和使用有很高的标准,但我们的对手没有。特别是,中国共产党不受与美国相同的人工智能开发和部署标准的约束。这引发了人们对中国和中国人民解放军将如何利用人工智能系统和基础数据作为对抗美国的武器的严重担忧。自治人工智能和自主性

    132、是密不可分的。自主系统可以为军队提供情报、监视、侦察、后勤、基地保护和防御等方面的巨大价值。然而,利用人工智能的自主武器也引发了人们对道德、决策和治理的担忧。自主系统必须经过仔细和持续的审查,并与国防部关于自主武器的政策保持一致。标准采用人工智能标准植根于上述倡议、框架、指导和道德准则。鉴于人工智能技术的发展速度如此之快,过早地制定正式的企业人工智能标准可能会限制国防部采用无法跟上人工智能技术和商业产品状态变化的方法或流程。因此,CDAO对AI标准采取了双重方法。在通用企业方法至关重要的领域,例如国防部人工智能道德原则或负责任的人工智能战略和实施途径中概述的领域,CDAO寻求尽早实施相关的人工

    133、智能标准。相比之下,CDAO在制定单一统一企业标准不太重要的领域采用了更渐进、迭代的人工智能标准开发方法。这种更为稳健的人工智能标准开发速度使实验成为可能,并确保国防部能够跟上快速变化的技术。28数据、分析和人工智能采用策略。美国国防部,2023年6月27日,https:/media.defense.gov/2023/Nov/02/2003333300/-1/-1/1/DOD_DATA_ANALYTICS_AI_ADOPTION_STRATEGY.PDF.这种人工智能标准方法反映在国防部数据、分析和人工智能采用战略29和联合人工智能构建实施计划30中概述的CDAO过程中通过这种方法,与国防部各

    134、部门合作并与行业对话,CDAO迭代地评估了可能适合在整个企业中采用和扩展的常见最佳实践、方法、技术模式或标准的领域。联邦人工智能构建实施计划中概述的这种方法是基于服务首席数据官、联合参谋部J2、ODNI的自动化智能使用机器(AIM)倡议和NGA的Maven项目的投入而开发的。两党众议院人工智能工作组lii29同上。30美国政府问责局,“人工智能:国防部需要全部门指导来为采购提供信息。”美国政府问政局,2023年6月29日,https:/www.gao.gov/products/gao-23-105850.两党众议院人工智能工作组liii主要发现主要发现人工智能是国家安全的重要组成部分。人工智能

    135、是国家安全的重要组成部分。人工智能技术和人工智能专业知识,包括进攻和防御使用能力,对我们的国家安全生态系统至关重要。国会应该探索美国国家安全机构可以安全采用和利用人工智能好处的方法。美国的对手正在采用人工智能并将其军事化。美国的对手正在采用人工智能并将其军事化。美国的对手正在开发极其先进的人工智能模型、工具和应用程序,并广泛参与全球人工智能研究和出版物。国家安全需要先进的云访问和人工智能。国家安全需要先进的云访问和人工智能。在冲突中,美军将被要求进行远距离作战。在这些巨大的空间和海洋中传输数据将需要有效利用云、自动化和人工智能。国家安全需要人工智能来应对有争议的环境。国家安全需要人工智能来应对

    136、有争议的环境。在冲突中,所有系统,包括支持人工智能的自主系统,都需要在有争议、被拒绝和退化的环境中运行。国防部正在积极探索边缘计算的需求,以确保人工智能在有争议的环境中保持相关性,并确保自主系统保持安全和值得信赖。人工智能可以极大地改善国防部的业务流程。人工智能可以极大地改善国防部的业务流程。现在可以部署人工智能来简化后台任务和功能,如审计、财务管理和其他业务流程。这可以节省更多的成本,减少官僚主义。两党众议院人工智能工作组liv建议建议建议:将国会监督重点放在国家安全的人工智能活动上。建议:将国会监督重点放在国家安全的人工智能活动上。国会应通过简报、听证会、信函和其他机会行使监督职能。这种监

    137、督最好包括听取政府内外人士的意见。这些互动必须认识到,国会议员和工作人员对人工智能的理解程度各不相同。众议院军事委员会(HASC)和其他管辖委员会应确保关于国家安全人工智能活动的简报和听证会涵盖各种观点,并适合不同专业水平。建议:支持国防部扩大人工智能培训。建议:支持国防部扩大人工智能培训。国防部正在扩大对采购专业人员、作战人员、高级领导和其他在国防部工作的人员的人工智能培训。然而,国会必须确保国防部积极支持这些努力。建议:继续监督自主武器政策。建议:继续监督自主武器政策。2023年,国防部更新了适用于自主和半自主武器系统的指令3000.09武器系统自主性,包括那些包含AI的武器系统。31该政

    138、策规定,“自主和半自治武器系统的设计将允许指挥官和操作员对武力的使用进行适当程度的人类判断。”该指令为设计、开发、获取、测试、部署和使用自主和半自动武器系统确立了指导原则。国会应继续对这一政策和任何相关的后续政策进行强有力的监督,并支持国防部要求对核武器发射进行有意义的人为控制的政策。建议:支持在军事环境中使用人工智能的国际合作。建议:支持在军事环境中使用人工智能的国际合作。国际合作将是解决人工智能在军事环境中带来的更广泛安全问题的关键。鼓励在军事背景下对人工智能进行监督的全球规范和协议,例如通过负责任军事使用人工智能政治宣言,可以加强全球安全工作。3231美国国防部,国防部指令3000.09

    139、:武器系统的自主性。美国国防部,2023年1月25日,https:/media.defense.gov/2023/Jan/25/2003149928/-1/-1/0/DOD-DIRECTIVE-3000.09-AUTONOMY-IN-WEAPON-SYSTEMS.PDF.32军备控制、威慑和稳定局。关于负责任地军事使用人工智能和自主的政治宣言,美国国务院,2023年11月9日,两党众议院人工智能工作组lv背景背景人工智能已经在科学、经济和国防领域发生了变革。1在基础人工智能研究和商业应用方面,全球范围内都在竞相领先。美国仍然是基础研究和标准的领导者,并始终在其他国家之前生产尖端的人工智能应用程

    140、序,如ChatGPT。然而,根据美国国家科学委员会(NSB)最新的科学与工程指标报告,像中华人民共和国(PRC)这样的敌对国家在被高度引用和合作的研发方面正在迅速超越世界。2为了保持美国在全球人工智能创新和治理方面的领导地位,国会将需要继续进行联邦研发工作,支持人工智能评估,并加强美国人工智能的标准化工作。人工智能领域并不新鲜。自20世纪50年代以来,美国政府一直在投资人工智能研究。然而,在过去的10年里,人工智能科学出版物的数量开始加快,2016年,美国政府发布了首个人工智能倡议。3与此同时,私营部门一直在加快对人工智能研发的投资,其中大部分集中在几家大公司。因此,人们越来越关注人工智能研发

    141、中的公私合作伙伴关系,以加快人工智能的不同领域,并扩大小公司和高等教育机构为其发展做出贡献的机会。1埃里克施密特。人工智能、大国竞争与国家安全代达罗斯,2022年,https:/www.amacad.org/publication/daedalus/ai-great-power-competition-national-security.2国家科学委员会。2024年美国科学与工程状况:推进国家劳动力和创新的未来。美国国家科学基金会,2024年,美国国家科学委员会。人工智能与美国技术和劳动力发展的未来,国家科学基金会,2020年,两党众议院人工智能工作组lvi两党众议院人工智能工作组研究、开发和

    142、标准人工智能研发涉及开发从数据中学习、表示知识和执行推理的方法,以构建能够执行通常需要人类智能的任务的计算机系统。推进人工智能系统的基础研究旨在改进学习、推理、解决问题、规划、知识表示、语言理解和视觉感知的方法,以及了解系统在现实世界中是如何运作的,以评估和应对风险,包括安全、安保和偏见。4在获取收益的同时了解和减轻潜在风险对于在所有领域和用例中采用人工智能非常重要,特别是对于安全关键案例或基于人工智能的决策对个人、社区、环境或整个社会产生重大影响的案例。需要在这一领域进行研究,以解决几个悬而未决的重大科技挑战,包括提高透明度机制,如可解释性和可解释性;评估人工智能系统的能力和局限性;为高性能

    143、人工智能系统开发技术缓解和防御机制;提高人工智能系统或代理的感知和行动能力;以及开发可在真实和虚拟环境中部署的可扩展、通用的人工智能系统。人工智能研发还涉及人工智能系统的应用,以推进科学和工程领域的研究。以下是机器学习和人工智能多年来一直在帮助推动发现的科学领域的一小部分:生物学:个性化基因医学;生物分子结构预测;显微图像分析;合成生物学 地质学:空气、空间和海洋传感器的数据解释;地质建模 天文学:天体识别 化学:性能预测、可持续化学 物理学:复杂系统分析;材料预测;量子信息科学美国人工智能研究与开发美国人工智能研究与开发美国之所以能保持其在人工智能领域的领先地位,主要是因为几十年来联邦政府对

    144、人工智能研发的持续和一致的投资。联邦投资促成了推动该技术向前发展的关键发现。例如,美国国家科学基金会(NSF)的投资支持了导致神经网络发展的关键研究,神经网络如今被工业和学术界广泛使用,其前身获得了2024年诺贝尔物理学奖4霍维茨、埃里克和米切尔、汤姆。“人工智能的科学进步:历史、现状和未来。”2024年2月,http:/ U.S.C.9411-国家人工智能倡议。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title15/USCODE-2023-title15-chap119-subchapI-sec941112美国众议院科

    145、学、空间和技术委员会。AI One Pager:H.R.6216,2020年国家人工智能倡议法案。13白宫。“白宫成立国家人工智能倡议办公室。”白宫,2021年,https:/trumpwhitehouse.archives.gov/briefings-statements/white-house-launches-national-artificial-intelligence-initiative-office/.14科学技术政策办公室。“国家科学技术委员会(NSTC)。”白宫,两党众议院人工智能工作组lixNSTC发布了几份关于联邦在人工智能中作用的不同方面的报告,包括2016年的第一份

    146、国家人工智能研发战略计划。15,16该战略计划呼吁对人工智能研究进行长期投资,以保持美国在人工智能领域的世界领先地位。它在2019年和2023.17,18进行了两次更新。该计划确定了有关基本人工智能问题、人类人工智能团队、人工智能治理、测量、测试以及人工智能、机器人等标准的知识差距。它包括对研究、研究基础设施、国际合作、开发共享公共数据集、促进公私伙伴关系以及人工智能研发劳动力需求的建议。联邦人工智能研发和基础设施投资亮点作为人工智能研发广度的例证,NSF的每个研究部门都为其人工智能研发的总投资组合做出了贡献。19值得注意的是,NSF是我们政府最大的计算机科学研究资助者。此外,由于其社会、行为

    147、和经济科学理事会,NSF在推进人工智能的伦理、法律和社会影响以及更广泛的人工智能治理科学的研究方面也发挥着巨大的作用,包括支持包括社会科学家和技术伦理学家在内的跨学科研究团队。随着美国面临日益激烈的全球科技竞争,NSF对新兴技术研究的投资对于扩大创新和基础研究商业化至关重要。成立于2022年的技术、创新和伙伴关系(TIP)理事会建立在NSF在科学和工程研究与教育方面的长期领导地位之上。NSF最近发布了TIP的3年路线图,将人工智能和机器学习(ML)确定为首要任务。15科学技术政策办公室。“为人工智能的未来做准备。”白宫,2016年10月,https:/obamawhitehouse.archi

    148、ves.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_fu图片_of_ai.pdf。16科学技术政策办公室。人工智能、自动化和经济,白宫,2016年12月,17国家人工智能研究与发展战略规划:2019年更新。国家网络与信息技术研究与发展协调办公室,2019,https:/www.nitrd.gov/pubs/National-AI-RD-Strategy-2019.pdf.18国家人工智能研究与发展战略规划:2023年更新。国家网络和信息技术研发协调办公室,2023年,https:

    149、/www.nitrd.gov/pubs/National-Artificial-Intelligence-Research-and-Development-Strategic-Plan-2023-Update.pdf.19国家科学基金。“什么是人工智能?”美国国家科学基金会,资料来源:NITRD-人工智能研发投资。FY19至FY25。两党众议院人工智能工作组lx几十年来,美国能源部(DOE)及其国家实验室综合体一直在投资人工智能的研究和开发。在此期间,他们负责为开放科学和分类研究需求开发尖端的人工智能工具和高性能计算。在联邦综合体中,美国能源部拥有独特的计算资源,包括世界上最强大的两台超级计算

    150、机,以及支持政府和非政府科学研究的物理和数字基础设施。这使他们能够快速推进复杂人工智能模型的开发,这可能会加速材料科学、化学和生物学等几个基础科学领域的发现。2023年5月的一份报告人工智能在科学、能源和安全领域的高级研究方向概述了这些努力的范围,美国能源部国家实验室的代表在报告中提出了进一步开发人工智能工具以促进科学创新的战略。21DOE最近还提出了一项名为“科学、安全和技术人工智能前沿”(FASST)的提案,强调了其管辖范围内可以快速利用人工智能的关键领域。22这些领域包括提高电网可靠性,开发更有效的癌症筛查和治疗方法,以及改善核武器储备的管理。2024年7月,美国能源部宣布了FAST倡议

    151、的路线图,该倡议将利用该部先进的超级计算、研究基础设施及其设施产生的庞大科学数据库。2320阿菲菲萨贝特。“目前世界上最强大的7台超级计算机”,生活科学,2024年3月,https:/ AI试验台”。阿贡国家实验室,https:/www.alcf.anl.gov/alcf-ai-testbed.34橡树岭国家实验室。Citadel用户指南。橡树岭国家实验室,两党众议院人工智能工作组lxiiiNAIRR试点的参与者希望它能作为一个概念验证模型,将研究人员和教育工作者与资源联系起来,并展示NAIRR推进新颖、变革性和公共利益人工智能研究的能力。H.R.5077,即2023年的创造人工智能法案,是由

    152、众议院人工智能核心小组成员、35名众议员Eshoo、McCaul、Beyer和Obernolte提出的一项法案,该法案将授权制定完整的NAIRR。36应监督NAIRR试点的实施和评估,为可能的全面NAIRR做准备。学术研究学术研究推进了科学技术的基础知识。大学的基础科学研究推动了可以带来新技术或改进技术的发现,同时教授和培训下一代研究人员。大学研究也是数千家为区域经济发展和创造就业机会做出贡献的衍生公司的来源。37这些衍生产品主要集中在大学附近,这推动了区域创新。然而,大学的人工智能研究仍然受到数据获取和计算能力的限制。即使是资源最丰富的学术机构也没有资源来训练与最先进的人工智能模型具有相当复

    153、杂性的人工智能系统。为农村地区服务的机构和为少数民族服务的机构在获取这些资源方面面临着更为严峻的挑战。因此,许多研究人员完全离开了学术界,转而投身于工业。通过为研究人员提供更多获取先进计算资源的机会,人工智能研发将得到支持。这尤其有利于那些在参与人工智能研究生态系统时面临重大财务、能力或后勤挑战的人。科学机构可以促进从各种先进计算技术中获取计算资源,从传统的现场计算到云计算,再到边缘计算和量子计算等新兴计算范式。由于资源限制,这种网络基础设施将在为大量较小的人工智能研究项目和少数需要大量资源的前沿研究项目提供资源之间进行自然权衡。35美国众议院人工智能核心小组。众议员Anna Eshoo,ht

    154、tps:/artificialintelligencecaucus-eshoo.house.gov/.36“H.R.5077-第118届国会(2023-2024):2023年人工智能法案。”Congress.gov,国会图书馆,2024年9月11日,https:/www.congress.gov/bill/118th-congress/house-bill/5077.37Prokop,D.、Huggins,R.和Bristow,G.(2019)。“学术衍生公司的生存:关键决定因素的实证研究。”国际小企业杂志,37(5),502-535。https:/doi.org/10.1177/026624

    155、2619833540.两党众议院人工智能工作组lxiv开发共享的公共人工智能就绪数据集也将促进研发。基础研究,包括人工实验室测量、自动化实验室、现有数据管理和新的实验方法,对于生成人工智能模型所需的数据都至关重要。38此外,使数据可查找、可访问、可互操作和可重复使用的一致的联邦政策、指导方针和工具可以显著推进跨学科的人工智能研究。39联邦、学术和行业研究人员往往缺乏对现有数据的简化访问,这对于在整个研发过程中有效地发现、开发和将发现转化为行业至关重要。40,41这个问题在生物技术领域尤为严重。尽管美国历来资助美国国立卫生研究院的一些生物数据库开发和管理,但大多数生物数据资产分散在几个政府和非政

    156、府存储库中,没有考虑互操作性。同样,这些存储库在元数据管理和质量方面可能存在很大差异,进一步阻碍了将这些数据集成到训练复杂的人工智能模型中。这可能部分是由于在如何报告和存储生物技术数据和元数据以供访问方面缺乏一致的标准。42联邦政府对开源软件库和工具包的投资也可以支持人工智能研发。联邦活动,如美国国家科学基金会的“实现开源生态系统的途径”计划,长期以来一直支持开源环境,以刺激关键和新兴技术的创新。43联邦机构可以开发开放软件库,或在行业没有市场动力为政府或其他部门开发这些工具的领域为其做出贡献。44科学创新需要实验设计、结果和数据的共享。通过分享这些信息,研究人员鼓励提高透明度、结果的可重复性

    157、,并在从业者中传播研究结果。在过去几年中,许多使人工智能发展加速的开创性论文都是公开发表的,比如谷歌的变形金刚论文,45它支撑着像ChatGPT这样的系统。38同上。39美国参议院生物技术委员会。“利用生物数据。”参议院生物技术委员会,2023年,https:/www.biotech.senate.gov/press-releases/leveraging-biological-data/.40白宫。生物经济倡议数据的愿景、需求和拟议行动,白宫,2023年,41前31条。42前40条。43国家科学基金。“目的:实现开源生态系统的途径。”美国国家科学基金会,https:/new.nsf.gov/

    158、funding/opportunities/pose-pathways-enable-open-source-ecosystems.44前19条。45Jakob Uszkoreit等人,“Transformer:一种用于语言理解的新型神经网络架构”,谷歌研究博客,2017年,https:/research.google/blog/transformer-a-novel-neural-network-architecture-for-language-understanding/.两党众议院人工智能工作组lxv然而,近年来,许多工业实验室一直在减少他们发表或在会议上发表的与人工智能相关的学术论文

    159、的数量。虽然商业秘密和竞争优势是发布内容的合理考虑因素,但封闭的人工智能研究生态系统可能会限制美国在人工智能方面的竞争力。为了促进人工智能创新,联邦和非政府组织应该合作,在开放性和知识产权、安全和国家安全风险之间找到更适当的平衡。许多观察家描述了美国大学进行的基础研究和行业通常进行的商业化活动之间的“死亡谷”。46大学通常缺乏取得初步研究成果和生产适销产品所需的生产手段。根据美国艺术与科学院的说法,美国必须加快将发现和发明从实验室研究转化为产品的步伐,才能保持竞争力。47工作组发现,工业、政府和学术界之间更密切的合作可以增加技术转让,刺激创新,带来新产品和新工艺,并扩大市场。人工智能评估与测试

    160、研究人工智能评估与测试研究许多人工智能系统始终如一地产生积极、可预测和预期的结果,但有些系统会失败或间歇性地产生意想不到的结果。因此,人工智能系统通常无法满足性能、安全性或可靠性预期。48随着人工智能系统能力的提高,人们对管理人工智能系统风险的兴趣也相应增长。49其中一些讨论侧重于解决理论安全问题或使人工智能系统的开发与某些价值观相一致,50而其他研究人员则专注于社会技术挑战,通过人工智能设计、开发和使用中涉及的复杂的人类、组织和技术因素来研究人工智能风险。51确定任何给定人工智能系统是否有好的结果和影响将需要对人工智能系统进行有效和一致的测试和评估。46Charles Wessner等人,“

    161、推动创新跨越死亡谷”,ResearchGate,2005年,https:/ 22)。”国际计算机学会,https:/doi.org/10.1145/3531146.3533158.49达里奥阿莫迪、克里斯奥拉、雅各布斯坦哈特、保罗克里斯蒂亚诺、约翰舒尔曼和丹马内。人工智能安全中的具体问题。Dan Hendrycks、Mantas Mazeika和Thomas Woodside。灾难性人工智能风险概述,2023年9月。http:/arxiv.org/abs/2306.12001.50伊恩加布里埃尔。人工智能、价值观和对齐。思维与机器,30(3):411-437,2020年9月。https:/ B

    162、urden,“评估人工智能评估:风险与前景”。剑桥大学Leverhulme未来智能中心、存在风险研究中心:arXiv,2024,https:/arxiv.org/html/2407.09221v1#bib.bib7.54纳拉亚南和卡普尔。评估大型语言模型:雷区,普林斯顿大学,https:/www.cs.princeton.edu/arvindn/谈话/评估_llms_雷区/#/9。55同上。56Sorelle Friedler等人,“人工智能红队不是人工智能危害的一站式解决方案:使用红队进行人工智能问责的建议”,数据与社会,2023年10月25日,https:/ Sheehan、Marjory

    163、 S.Blumenthal和Michael R.Nelson。“中国新标准战略的三点启示”卡内基国际和平基金会。2021,https:/carnegieendowment.org/research/2021/10/three-takeaways-from-chinas-new-standards-strategy?lang=en.72Mark Montgomery和Theo Lebryk,中国的反乌托邦“新知识产权”计划表明美国需要重新承诺互联网治理,公正安全,2021年4月13日。73李喜瑞和陈定鼎,“西方应该害怕中国在技术标准制定中日益重要的作用吗?”外交官,2021年4月15日。http

    164、s:/ 7000系列人工智能。“自动和智能系统(AIS),”https:/standards.ieee.org/initiatives/autonomous-intelligence-systems/.两党众议院人工智能工作组lxxi在NAIIA中,国会指示NIST支持人工智能标准的制定。80在第14110号行政命令中,总统指示NIST开展一系列活动,以支持与人工智能系统相关的标准化和评估。81例如,NIST在利益相关者发表意见后,制定了一项全球参与人工智能标准计划。82鉴于技术标准流程需要大量时间,联邦政府可以通过制定或分发现有的人工智能系统指南和最佳实践,帮助组织负责任地采用人工智能系统和

    165、人工智能治理。例如,NIST通过与公共和私营部门的利益相关者合作,开发了一个自愿的人工智能风险管理框架。83NIST通过一个广受好评、共识驱动、开放、透明和协作的过程开发了该框架(于2023年1月发布)。NIST还发布了一份行动手册草案,以帮助组织实施。然而,该框架的第一次迭代只是通过引导读者批判性地思考人工智能系统的背景、测量和管理,为识别和减轻人工智能风险设定了理论基线。同样,该机构在风险管理框架下制定了一个特定的生成性人工智能风险简介。84随着时间的推移,这些文件也可以进入标准流程。其他几个联邦机构将在支持人工智能相关标准化方面发挥关键作用。国务院就外交政策问题向总统提供建议,并代表美国

    166、在国际电信联盟等基于条约的国际标准机构中发挥领导作用。由于国务院缺乏参与许多技术标准的技术专长,它有时会将领导权委托给其他专家机构。专注于特定部门的面向任务的机构,如能源部,也可能与制定与其任务相关的人工智能相关标准的国际标准组织合作。80前11条。81前59条。82国家标准与技术研究所。人工智能风险管理框架。2023,https:/nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-5.pdf.83国家标准与技术研究所。人工智能风险管理框架。国家标准与技术研究所,84国家标准与技术研究所。生成人工智能简介:NIST人工智能风险管理框架。美国国家标准与技术研究所,

    167、https:/airc.nist.gov/docs/NIST.AI.600-1.GenAI-Profile.ipd.pdf.主要发现主要发现联邦政府对基础研究的投资使当前的人工智能机会成为可能。联邦政府对基础研究的投资使当前的人工智能机会成为可能。美国国家科学基金会、美国国立卫生研究院、国防部和能源部等多个机构对基础研究的投资为当今推进人工智能机会提供了关键的知识库和大部分技术劳动力。两党众议院人工智能工作组lxxii持续的人工智能研究和评估将促进人工智能的进步。持续的人工智能研究和评估将促进人工智能的进步。人工智能开发和采用面临的许多挑战都源于未解决的科学或技术问题。这些问题可以广泛应用于许

    168、多行业和用例。人工智能研发的进展与获取人工智能资源密切相关。人工智能研发的进展与获取人工智能资源密切相关。研究人员需要大量的计算和数据资源来继续推进人工智能研发。这在人工智能发展的前沿尤为明显,开发最先进的人工智能模型需要昂贵的计算资源和数据集。封闭的人工智能研究生态系统可能会限制美国在人工智能领域的竞争力。封闭的人工智能研究生态系统可能会限制美国在人工智能领域的竞争力。与许多科学领域一样,人工智能研发有着丰富的开放研究、合作和共享发现的历史。然而,一些私营公司的人工智能研究人员可能会出于竞争原因降低其工作的开放性,限制其他人可以建立的人工智能知识。大学人工智能研发是必要的,但必须与充满活力的

    169、技术转让活动相结合。大学人工智能研发是必要的,但必须与充满活力的技术转让活动相结合。大学通常缺乏将最初的研究成果转化为可销售产品所需的生产资料。大学进行的基础研究与行业开展的商业化活动之间往往存在很大差距。围绕人工智能评估推进科学研究将有助于推动采用。围绕人工智能评估推进科学研究将有助于推动采用。要部署人工智能技术,用户需要确保其行为可靠。不同类型的评估可以衡量人工智能系统在特定环境和用例中的表现。两党众议院人工智能工作组lxxiii美国在标准制定方面处于全球领先地位,但面临着竞争对手。美国在标准制定方面处于全球领先地位,但面临着竞争对手。美国采用行业主导的自下而上的方法来制定大多数标准。然而

    170、,美国面临着一些国家的挑战,这些国家可能会利用标准作为工具,为其国内产业获得竞争优势。两党众议院人工智能工作组lxxiv建议建议建议:持续监测和评估人工智能对不同行业和国家的影响。建议:持续监测和评估人工智能对不同行业和国家的影响。美国应该建立机制来监测和评估人工智能对不同行业和社会的影响。这些信息对于为人工智能政策提供最新信息非常有价值。这反过来将使这些政策和资金与我们的国家目标和优先事项保持一致。例如,很明显,额外的研究在解决某些问题或解决新的问题方面是有价值的。建议:支持基础研发,以保持人工智能创新的领先地位。建议:支持基础研发,以保持人工智能创新的领先地位。大学的基础科学研究推动了可以

    171、带来新技术或改进技术的发现,同时教授和培训下一代研究人员。联邦政府对基础人工智能研发的持续战略投资,包括通过公私伙伴关系,对于保持美国在人工智能技术和应用方面的领导地位至关重要。少数大公司内部存在不成比例的人工智能研发。因此,联邦投资对于继续进行基础人工智能研究至关重要,这将最终使商业发展和公众受益。国会应继续支持国家科学基金会、能源部、国立卫生研究院和其他向大学提供人工智能研发资助的科学机构,包括STEM领域的人工智能科学。此外,为了确保美国仍然是标准化的全球领导者,国会应继续对人工智能等关键和新兴技术进行研发投资,特别是支撑技术标准的计量科学。建议:增加从大学研发到市场的技术转移。建议:增

    172、加从大学研发到市场的技术转移。大学很难将基础研究商业化。大学普遍缺乏取得初步研究成果和生产适销产品所需的生产资料。美国必须加快将发现和发明从实验室研究转化为产品的步伐,才能保持竞争力。工业、政府和学术界之间更密切的合作可以增加技术转让,刺激创新,产生新产品和新工艺,扩大市场。两党众议院人工智能工作组lxxv建议:促进人工智能研发的公私伙伴关系。建议:促进人工智能研发的公私伙伴关系。公司进行了大量的美国人工智能研发,并合理地将某些发展作为商业机密,这对其竞争战略至关重要。然而,人工智能研发和商业化的公私伙伴关系是我们国家创新生态系统的一个优势。美国还应该建立政府(包括国家实验室)、大学和私营部门

    173、之间长期的伙伴关系,在开放和封闭研究之间找到适当的平衡。除其他外,这有助于避免联邦政府资助在工业领域开展类似工作的冗余研究。国会应支持支持和扩大这些有效伙伴关系的倡议。建议:促进围绕人工智能评估和测试的研究和标准化。建议:促进围绕人工智能评估和测试的研究和标准化。围绕人工智能评估的科学正在迅速发展。在一个用例中部署的AI评估可能不适用于其他用例。对人工智能系统的纯技术评估可能无法解决所有挑战,例如人工智能系统使用中的社会技术问题。背景对于改进对特定行业或特定用例中部署的人工智能系统的评估至关重要。为人工智能评估制定的自愿标准应考虑特定的人工智能用例。同样,各组织和现有的部门监管机构应探索最适合

    174、其背景或情况的评估制度。国会应考虑支持改进和规范评估的活动。建议:促进基础设施和数据的发展,以实现人工智能研究。建议:促进基础设施和数据的发展,以实现人工智能研究。研究人员需要大量的计算和数据资源才能在人工智能研发方面取得持续进展。资源限制往往阻碍了学术界、小企业和其他人进行人工智能研究和利用最先进的人工智能系统的能力。开发计算资源、数据资源、共享测试资源和软件的共享公共基础设施将促进美国的人工智能研发。联邦科学机构应促进对其计算资源的访问,并促进其数据的更大可用性。联邦政府对开源软件库和工具包的投资也将支持人工智能的发展。最后,国会应该研究NAIRR如何提供这些急需的人工智能资源。两党众议院

    175、人工智能工作组lxxvi建议:美国继续参与国际标准制定。建议:美国继续参与国际标准制定。美国以其行业主导、自下而上的方法在标准制定方面处于全球领先地位。然而,美国面临着一些国家的挑战,这些国家可能会利用标准作为工具,为其国内产业获得竞争优势。联邦协调、跟踪联邦参与情况以及增加联邦对标准制定的参与,有助于促进美国在国际标准机构中的持续领导地位。国会还应探索改善美国利益相关者参与国际标准制定的机制,例如为小企业提供赠款,解决在美国召开利益相关者会议的障碍。建议:坚持美国制定标准的做法。建议:坚持美国制定标准的做法。美国在制定由多个行业利益相关者领导的标准方面有着悠久的历史。美国的方法通过促进充满活

    176、力的审议和竞争来防止低标准,从而使最具技术价值的标准占上风。破坏自下而上、基于规则、多利益相关方制定标准过程的政策可能会使美国公司处于不利地位,并使我们的对手更加大胆地将美国公司排斥在标准过程之外。关于自愿共识标准、贸易和战略竞争对手的联邦政策不应偏离这一方法。联邦政府还应与盟友合作,维护美国对国际标准机构的开放、基于规则的做法。建议:将国家人工智能战略与更广泛的美国技术战略相结合。建议:将国家人工智能战略与更广泛的美国技术战略相结合。人工智能是几十年来最具变革性的技术之一,有望在未来几年成为我们国家利益的核心部分。为确保政府对人工智能发展采取全方位的方法,人工智能应被视为国家科技战略和类似联

    177、邦战略的一部分。国家人工智能倡议法案正式确定了人工智能倡议的机构间协调和战略规划。CHIPS和科学法案指示OSTP与国家科学技术委员会(NSTC)合作,每四年制定一项全面的国家科学技术战略,以确保研究和开发符合我们的战略方向。85人 工智能应该是这一国家战略的明确组成部分。85前57页。建议:探索如何利用人工智能加速跨学科的科学发现。建议:探索如何利用人工智能加速跨学科的科学发现。人工智能有可能加速所有科学领域的研究。联邦科学机构正在大力投资于基础人工智能研发及其在各种STEM领域的应用。凭借这些经验和专业知识,机构可以了解阻碍人工智能研发的资源障碍,并可以提供潜在的解决方案,扩大美国的人工智

    178、能研究。例如,机构可以研究并建议额外的基础设施投资,以更好地利用人工智能进行科学发现。将人工智能与疾病预防、环境科学和制造业等领域相结合的跨学科研究可以提供工具,两党众议院人工智能工作组lxxvii以新的方式应对我们最复杂的挑战。联邦机构历来合作解决这些问题并实现共同目标。NSF资助所有非生物医学学科和众多STEM教育项目的大学研究,应该是促进跨学科人工智能研究的关键。建议:支持小企业的人工智能研发。建议:支持小企业的人工智能研发。小企业是美国经济的支柱。因此,国会应继续支持小企业开展和推进人工智能研发的能力。小企业创新研究(SBIR)和小企业技术转让(STTR)等项目由10多个联邦机构提供服

    179、务,校外研发预算分别超过1亿美元和10亿美元。86这两个项目旨在让小企业将先进的技术解决方案商业化,并最终促进工业、学术界和政府之间的技术转让。美国国家科学基金会和国防部等机构应继续为以人工智能为重点的SBIR/STRR奖项做出重大贡献;这些项目可以支持基础和应用人工智能研究,以加强国家安全和我们的研发基础设施。8786美国小企业管理局。“关于小企业创新研究(SBIR)和小企业技术转让(STTR)计划。”SBIR.gov,https:/www.sbir.gov/about.87国家科学基金。“小企业创新研究(SBIR)和小企业技术转让(STTR)项目。”国家科学基金,两党众议院人工智能工作组l

    180、xxviii建议:鼓励与志同道合的盟友和合作伙伴在研发方面进行国际合作建议:鼓励与志同道合的盟友和合作伙伴在研发方面进行国际合作人工智能治理等全球性问题刺激了国际对话。虽然像中国这样的政府部署人工智能技术来监视和控制其人口,但美国有机会在负责任和合乎道德的人工智能技术设计、开发和部署方面引领世界。这将受益于研究和标准化方面的国际合作。2019年,经济合作与发展组织(OECD)关于人工智能的建议将投资人工智能研发作为国家政策和国际合作的第一项建议。美国已经签署了这一承诺,它仍然是人工智能研发国际合作的主要焦点。美国应继续参与并领导这些国际论坛,以表明对研发合作的兴趣,并培养一种尊重适用国际法、个

    181、人隐私和人权的负责任的人工智能发展的全球文化。国会应支持联邦人工智能研发工作,以建立公众对人工智能技术的信心,并与志同道合的国家培养共同的价值观和社会优先事项。相关活动可能包括美国科学特使计划和其他支持国际合作、促进共享基础设施和确保美国获得国际人才的联邦科学计划。两党众议院人工智能工作组lxxviii背景背景人工智能系统,尤其是那些用于自动化复杂或密集流程的系统,为我们的日常生活带来了不可否认的好处。然而,如果没有适当的设计、理解和保障措施,人工智能系统也会造成伤害。人工智能模型和更一般的软件系统可能会产生误导或不准确的输出。基于有缺陷的产出采取行动或做出决定可能会违反法律,加剧危害,或产生

    182、新的危害。一些危害可能对大部分人口产生广泛影响;它们甚至可能构成犯罪或侵犯宪法权利、公民权利或公民自由。特别是在涉及公平和平等获得政府服务和福利的情况下,确保联邦政府合法保护公众的公民权利和自由至关重要。有缺陷或滥用技术的不利影响不是新的发展,而是设计和使用人工智能系统的重要考虑因素。企业、政府和执法机构使用的技术不准确或设计有缺陷,影响了美国人的公民权利。在一个例子中,执法部门使用的错误面部识别技术导致了错误逮捕。11Thaddeus Johnson等人,“警务中的面部识别系统和逮捕中的种族差异”,政府信息季刊,第39卷,第4期,2022年,101753,https:/ Ryan Mosel

    183、y,“显示面部识别的新诉讼正式成为民权问题”,麻省理工学院技术评论,2021年4月14日,https:/ De La Garza,“国家的自动化系统正在将公民困在官僚主义的噩梦中,他们的生命危在旦夕”,时代杂志,2020年5月28日,Tihttps:/ Aid被禁止使用人工智能面部识别。”联邦贸易委员会,2023年12月,4总统办公厅。“促进联邦政府使用值得信赖的人工智能。”联邦公报,2020年12月8日,以2019年发布的第13859号行政命令为基础,载于人工智能权利法案第5卷。白宫,两党众议院人工智能工作组lxxxi来源:Proxima-解决人工智能在医疗应用中的偏见:综合指南人工智能可能

    184、导致有缺陷的行为和决策人工智能可能导致有缺陷的行为和决策由于人工智能模型是数据驱动的,训练数据的问题可能会导致模型的性能与设计或预期不同。具体来说,使用的训练数据可能是不平衡的、不完整的或以其他方式受到限制的,有时是以微妙和难以检测的方式。训练数据可以包括没有经过人工智能模型培训师足够严格审查或分析的历史模式。训练数据中的这些缺陷可能无法解释重要的细微差别,也可能歪曲特定群体或决策类型。至关重要的是,训练数据具有代表性,并且对于其预期目的来说是高质量的。否则,在具有这些缺点的数据上训练的模型可能会产生不准确、误导或其他有缺陷的输出。人工智能模型可以产生有缺陷的输出,这些缺陷是扭曲或不平衡的,因

    185、为它们不成比例地影响一个或多个群体。在决策中使用这些有缺陷的输出可能会对群体产生偏见和歧视,包括种族、性别或退伍军人身份等受保护阶层。人工智能系统设计和使用不当造成的一组主要风险是有害的偏见,当算法产生系统性偏斜的结果时,就会出现这种偏见。偏见可以在人工智能系统创建时引入,也可以因人工智能系统的使用方式而出现。当人工智能模型的训练数据反映了历史偏差,6不能充分代表某些群体,或者表现出与模型预期用途不符的统计分布时,产生这种偏斜模型的机会就会放大。6Leonardo Nicoletti和Dina Bass,“人类有偏见。生成性人工智能甚至更糟糕。”彭博社,2023年6月9日,www.B Schw

    186、artz等人,“迈向识别和管理人工智能偏见的标准”,美国国家标准与技术研究所,2022年3月,https:/nvlpubs.nist.gov/nistpubs/SpecialPublications/NIST.SP.1270.pdf.8Bettina J.Casad等人,“确认偏差”。大英百科全书,2022年,www.B 2024年4月教育部、卫生和公共服务部、国土安全部、住房和城市发展部和劳工部加入了这一承诺。11这些机构执行联邦法律,如民权法案、公平住房法、美国残疾人法案和公平信用报告法案。该承诺指出,“现有的法律机构适用于自动化系统和创新新技术的使用,就像它们适用于其他实践一样。”然而,

    187、鉴于最近最高法院的裁决限制了机构解释模糊法规的能力,这可能会受到质疑。12现有的机构权限可能并不总是明确适用于所涉及的歧视类型。特别是在新兴技术的情况下,监管机构可能缺乏资源或专业知识,无法在新兴技术产生的新环境中充分执行现有法律。9例如,不是受保护类的邮政编码可以与受保护类种族相关联。10美国司法部,“关于在自动化系统中打击歧视和偏见的联合声明”,美国司法部www.Justice.gov/crt/page/file/1581491/dl?内联。11美国司法部,“关于在自动化系统中执行民权、公平竞争、消费者保护和平等机会法的联合声明”。美国司法部2022年4月4日,12Loper Bright

    188、 Enterprises诉Raimondo案(第22-451号),美国最高法院判例汇编第603卷(2024年),联邦最高法院判例法第144卷第2244页(2024-6/28);Relentless,股份有限公司诉商务部,(编号22-1219),联邦上诉法院判例汇编第62卷第4期第621页(第一巡回法院,2023年),第1页。参见美国最高法院判例汇编第1603卷(2024年),(2024年7月30日)。https:/www.supremecourt.gov/opinions/23pdf/22-451_7m58.pdf.两党众议院人工智能工作组lxxxiv此外,许多人工智能系统非常复杂,创建或部署

    189、人工智能系统的实体可能比受影响的实体拥有更多关于这些系统的信息。因此,监管机构和公众往往无法确定算法系统所依赖的具体因素。如果对人工智能系统如何生成输出没有足够的透明度,就必须在部署人工智能系统时对其进行评估,以确定其是否有可能产生歧视性决策。人们可能并不总是清楚人工智能系统是如何产生输出的,这些输出在人类决策中扮演什么角色,或者如何纠正这些缺陷。来源:TechTarget-减少机器学习中不同类型偏见的6种方法两党众议院人工智能工作组lxxxv主要发现主要发现人工智能的不当使用会违反法律,剥夺美国人最重要的权利。人工智能的不当使用会违反法律,剥夺美国人最重要的权利。有缺陷、扭曲、有偏见或在决策

    190、中使用不当的人工智能可能会违反法律或剥夺美国人的宪法权利、公民权利和公民自由。在人工智能的帮助下做出的决定可能会造成伤害,例如对受保护阶层的偏见或歧视。在国会考虑跨部门和用例的人工智能设计、开发和使用政策时,一个核心考虑因素应该是减轻影响美国公民权利和公民自由的有害后果。了解人工智能模型的可能缺陷和缺点可以减轻人工智能的潜在有害用途。了解人工智能模型的可能缺陷和缺点可以减轻人工智能的潜在有害用途。人工智能系统何时产生有缺陷的输出,或者有缺陷的输入在人类决策中扮演什么角色,并不总是很明显。评估和记录人工智能模型的具体特征和局限性,特别是在其预期用途的背景下,可以揭示根据其输出做出决策的风险,并有

    191、助于保护公民权利和公民自由。在设计和培训过程中引入更多的声音可能有助于改进人工智能系统并解决其中一些问题。两党众议院人工智能工作组lxxxvi建议建议建议:当人工智能用于高度重要的决策时,让人类参与进来,积极识别和补救潜在的缺建议:当人工智能用于高度重要的决策时,让人类参与进来,积极识别和补救潜在的缺陷。陷。这对于保护受人工智能系统影响的美国人的宪法权利和公民自由是必要的,无论这些系统是由政府还是私人实体使用。建议:各机构必须了解并防止在歧视性决策中使用人工智能。建议:各机构必须了解并防止在歧视性决策中使用人工智能。联邦机构不仅必须在内部了解并防止有害的人工智能使用,而且负责监督民权和消费者保

    192、护的机构也必须了解并防止他人非法使用人工智能。这对于银行、医疗保健、住房、教育、就业、执法和其他公共服务等高影响力领域的决策尤为重要。建议:为部门监管机构提供工具和专业知识,以解决其领域内与人工智能相关的风险。建议:为部门监管机构提供工具和专业知识,以解决其领域内与人工智能相关的风险。现有的部门监管机构有权追究公共和私营部门行为者对不同侵犯宪法权利、公民权利、公民自由和消费者保护行为的责任。为了解决人工智能与司法管辖区的交叉问题,监管机构需要工具和技术专长来理解和正确应对与人工智能相关的风险。各机构应采用工具,使其能够评估人工智能决策,并识别和量化人工智能决策中的潜在缺陷。人工智能知识对金融服

    193、务、医疗保健、住房、教育、就业和消费者保护等领域的监管机构特别有帮助,在这些领域,许多新型的人工智能决策正在出现。一种可能的方法是,拥有人工智能专业知识的机构协助监管机构制定具体的研究计划,以了解和减轻人工智能系统在不同环境和用例中的不同风险。建议:探索受人工智能决策影响的用户的透明度。建议:探索受人工智能决策影响的用户的透明度。人工智能技术在银行、医疗、住房、教育、就业、消费者保护和执法等领域的决策中发挥着更大的作用。在各自的领域内,部门当局应探讨以下问题:在实质上使用人工智能的过程做出重大决定时,是否以及在何种情况下通知个人是合适的。一个类似的问题是,个人是否以及在多大程度上应该被告知政府

    194、或私人实体在做出重大决定中使用的人工智能系统的特征。提高透明度也有助于确保公共和私营部门对人工智能的有效监督,特别是在选举广告中使用的人工智能,并为执法和司法决策提供信息。建议:支持标准和技术评估,以减少涉及人工智能系统的有缺陷的决策。建议:支持标准和技术评估,以减少涉及人工智能系统的有缺陷的决策。私营部门更好地参与和制定行业主导的技术标准,有助于为指导在决策中正确使用人工智能系统提供严格的技术基础。人工智能标准远不如网络安全等其他类型的信息技术标准成熟。这些人工智能标准对于最大限度地提高人工智能系统的透明度、控制、评估和问责制至关重要,以促进公众对人工智能的信任,降低产生有害结果的可能性。如

    195、果针对人工智能系统的特定用例,这些标准将是最有帮助的。两党众议院人工智能工作组lxxxvii背景背景全球对具备科学、技术、工程和数学(STEM)能力的员工的需求,尤其是与人工智能相关的工作和职业,持续增长。但是,尽管美国各部门的STEM能力变得越来越重要,但美国的K-12数学和科学成绩远低于许多其他国家,并且停滞不前。1尽管联邦和州政府做出了努力,但美国在研究、开发和部署人工智能应用程序所需的适当人才方面仍存在重大差距,而且这一差距还在扩大。2对美国学习者进行人工智能主题的培训和教育,对于美国在人工智能技术方面继续保持领先地位以及国家经济和国家安全至关重要。培养人工智能和培养人工智能和STEM

    196、STEM人才人才培养人工智能相关领域的后代人才始于人工智能和STEM教育。虽然人工智能素养通常对我们日益数字化的世界中的所有学生都有用,但还需要额外的基础知识和技能来帮助学生在创建和推进人工智能技术方面担任更具技术性的角色,如人工智能研究人员、人工智能/机器学习(ML)工程师和数据科学家。31国家科学委员会。“美国和全球STEM教育和劳动力的人才。”国家科学与工程统计中心,2024年,https:/ncses.nsf.gov/pubs/nsb20243/talent-u-s-and-global-stem-education-and-labor-force#elementary-以及中学数学和

    197、科学。2Diana Gehlhaus等人,“美国人工智能劳动力:美国人工智能劳动市场分析”。安全与新兴技术中心,2021年,美国国防部3号。“2020年国防部人工智能培训和教育战略”。国防基金会,2020年,两党众议院人工智能工作组lxxxviii例如,成为AI/ML专家需要学生具备运算分析和数学的核心知识,包括三角学、线性代数、微积分和统计学。4解决国内人工智能行业未来的需求必须从培养人工智能人才开始。然而,培养国内人工智能人才的主要挑战之一是普遍缺乏STEM概念的基本素养。52019年的一项国际数学和科学评估显示,美国八年级学生在发达经济体国家的教育系统中排名居中,新加坡、日本和其他国家远

    198、远超过美国。从那时起,最近的国家评估分数表明,在新冠肺炎大流行期间,数学成绩倒退了大约20年。6对于寻求其他人工智能相关课程的学生,如计算机科学,只有57%的 美国学生。美国公立高中提供这些课程,而不是像中国和韩国这样广泛教授这些课程的国家。虽然学生在高中获得的数学学分比前几年多,完成的高级课程也比往年多,但他们在国家数学评估中的分数并没有提高。无论潜在的好处如何,如果教师继续缺乏必要的资源,改善基于科学的培训的努力将具有挑战性。人工智能学习也应该从K-12开始培养。人工智能学习传统上需要高级编程知识,这通常超出了K-12设置的范围。然而,更适合年龄的工具和课程的出现使今天的教育工作者能够改善

    199、年轻学生的学习过程。8几项研究发现,年轻学习者的学习体验有可能“游戏化”,使他们能够在STEM课程中学习人工智能系统。94美国国防部网络工作人员。AI/ML专家工作角色。美国国防部,2023年,https:/public.cyber.mil/dcwf-work-role/ai-ml-specialist/.5国家科学委员会。2020年科学与工程指标。国家科学基金,2020年,国家科学与工程统计中心6号。中小学STEM教育。美国国家科学基金会,2023,7Code.org。“2023年计算机科学教育状况:美国K-12学校调查”。Code.org,2023,https:/code.org/asse

    200、ts/advocacy/stateofcs/2023_state_of_cs.pdf.8邹丽尧等.人工智能技术在气象教育培训中的应用初探.美国计算机学会计算教育学报,https:/dl.acm.org/doi/abs/10.1145/3358695.3360939.9Martin等人。“K-12教育中人工智能研究的系统综述(2017-2022)。”计算机与教育:人工智能,ScienceDirect。2024年6月,https:/ Zwetsloot和Jack Corrigan,“人工智能师资短缺:美国大学能否满足日益增长的人工智能技能需求?”安全与新兴技术中心,2022年7月。https:/d

    201、oi.org/10.51593/20190049.13同上。14前5条。15国家科学基金。美国国家科学基金会发布最新科学与工程指标报告,https:/www.nsf.gov/nsb/news/news_summ.jsp?cntn_id=308617.16福布斯洞察。福布斯2020年1月15日报道:“多元化已被证实将促进创新和财务业绩。”,https:/ Blatecky等人,失踪的数百万人:使计算和数据民主化,弥合数字鸿沟,增加代表性不足的社区获得科学的机会。国家科学基金2021,18国家科学基金。熟练技术劳动力:概述和工作组。国家科学基金,2021,https:/www.nsf.gov/st

    202、atistics/stw/docs/skilled-technical-workforce-overview-and-working-group.pdf.19Diana Gehlhaus和Ines Pancorbo,“美国对人工智能认证的需求”安全与新兴技术中心,2021年6月。https:/doi.org/10.51593/20210001.20杰基斯诺。“所有年龄段的学生重返校园学习人工智能。”GovTech,2024,https:/ 予 的 权 力,是美国工业劳动力发展的主要联邦支持者,包括学徒制。美国劳工部一直在与行业合作伙伴合作,促进获得与人工智能相关的学徒计划。26几个州也支持与人

    203、工智能有关的学徒制,例如通过为提供学徒制的雇主提供税收优惠。27然而,一个持续的挑战是缺乏一个人工智能的劳动力框架,该框架可以识别和正式确定两党众议院人工智能工作组xcii标准的人工智能角色,以及这些角色所需的技能和能力。如果没有一个标准的参考框架,人工智能课程和培训计划之间可能会有很大的差异,这加剧了验证人工智能求职者技能和能力的挑战。了解人工智能劳动力了解人工智能劳动力目前,人们对“人工智能劳动力”的构成知之甚少,包括其人口构成、劳动力随时间的变化、就业差距以及人工智能相关工作在各个部门的渗透。28此外,人工智能相关的工作角色、工作类别、任务、技能组合和能力都不发达,而且往往不明确。例如,

    204、工人需要能够对人工智能系统进行测试、评估和分析的任务、技能或知识没有标准标准。如果没有关于人工智能劳动力的良好数据,就很难理解这一重要劳动力群体的能力、差距和需求。如果没有标准化的角色、任务以及执行这些任务的知识和技能,人工智能相关工作的劳动力途径和专业认证将仍然不成熟和多变。了解人工智能劳动力,包括定义角色和技能,对于为人工智能创建教育和人才管道至关重要。需要更新劳动力培训计划和非传统招聘途径,以满足对人工智能从业者日益增长的需求。这些项目可以帮助人工智能求职者成功地从职业教育和技能提升项目过渡到专业的人工智能劳动力。24美国,国会。1937年国家学徒法。公法75-3081937年8月16日

    205、。美国普通法规,第50卷,第664-666页。政府信息,https:/www.govinfo.gov/content/pkg/STATUTE-50/pdf/STATUTE-50-Pg664.pdf.25联邦公报办公室、国家档案和记录管理局。公法113-128-劳动力创新和机会法案。美国政府出版办公室,2014年7月21日,26流亡者。“Exiger和IAA合作推出DOL注册学徒计划。”Exiger,2024,https:/ 7南卡罗来纳州税务局。TC45:员工预扣津贴证明。南卡罗来纳州税务局,2023年,https:/dor.sc.gov/forms-site/Forms/TC45.pdf.2

    206、8白宫。国家人工智能研究与发展战略计划:2023年更新。白宫,2023年5月,两党众议院人工智能工作组xciii来源:Avison Young-美国各地对人工智能技能的劳动力需求持续增长。基于技能的招聘将通过使没有学士学位的申请人更容易展示自己的技能来扩大人才库,并将有助于消除历史上代表性不足的群体的就业障碍。29美国可以通过实现基于技能的雇佣、开发人工智能劳动力框架和调查劳动力参与障碍来加强人工智能劳动力。规范人工智能相关工作的工作角色、工作类别、任务、技能组合和能力也将有助于实现基于技能的招聘。这包括在联邦劳动力中,正如2020年政府人工智能法案30所指示的那样,该法案仍在进行中。31进一

    207、步的成功还需要广泛、有序的数据分析来监控人工智能劳动力的状态。支持更好的数据可以帮助决策者集中精力和投资来解决人工智能劳动力中的差距和差异,包括人口差异。其中一些工作目前由劳工统计局和国家科学与工程统计中心完成。32国会和联邦政府应继续研究如何改进和简化此类数据收集和分析。29人事管理办公室。OPM发布基于技能的招聘指南。首席人力资本官委员会,2024年,https:/www.chcoc.gov/content/artificial-intelligence-classification-policy-and-talent-acquisition-guidance-ai-government.

    208、30联邦公报办公室、国家档案和记录管理局。第116-260号公法2021年综合拨款法。美国政府出版办公室,2020年12月26日,31前29条。32Hill,国 家 科 学 与 工 程 统 计 中 心。人 工 智 能 与 技 术:国 家 视 角。国 家 科 学 基 金,2020,https:/ncses.nsf.gov/pubs/nsb20205/artificial-intelligence-technology.两党众议院人工智能工作组xciv不断发展的人工智能劳动力不断发展的人工智能劳动力虽然为人工智能角色建立劳动力框架至关重要,但同样重要的是要强调人工智能劳动力的构成不是静态的。随着人

    209、工智能技术的快速发展和在许多行业的采用,人工智能从业者的技能和人工智能生态系统中的角色也在迅速发展。技能框架和分类将有助于更好地研究和监测新出现的技能差距,提高美国在人工智能领域的领导地位。人工智能价值链中也出现了全新的角色,其范围将受到先进技术和政策的严重影响。例如,有一个新兴的人工智能审计员部门,他们评估并确保人工智能系统遵循法律和道德协议。33然而,对人工智能测量、评估和保证最佳实践的研究正在进行中。支持人工智能开发和集成的现有角色,如数据中心工作人员和网络安全专业人员,也可能随着技术的发展而增长或变化。人工智能模型依赖于大型和精心策划的数据集,这导致了一个强大的数据标签任务部门,需要大

    210、量的人力。在某些情况下,这项工作被外包给全球南方,那里普遍存在工人剥削的情况。34此外,一些最先进的模型使用“从人类反馈中强化学习”(RLHF)来使模型输出与人类偏好相一致。这种技术要求人类提供反馈,直接“奖励”模型的首选输出。在某些情况下,这意味着让低薪零工工人手动标记不受欢迎或有毒的内容,使模型适合公众消费。35由于互联网的某些部分包含大量虚假信息、偏见和仇恨言论,在没有干预的情况下,这些系统很容易模仿有毒内容。这种人工反馈要求员工具备适当的技能和培训,以正确解释内容。随着公司寻求在复杂主题上改进人工智能系统,人类在RLHF或类似的人工智能训练范式中提供相关反馈所需的技能也需要相应提高。促

    211、进公私合作以增强人工智能劳动力促进公私合作以增强人工智能劳动力美国在许多关键和新兴技术方面的领导地位历来植根于美国政府-大学-产业研发生态系统和劳动力管道。33马克丹杰洛。“审计人工智能:透明度和评估的新兴战场。”汤森路透,2023年,https:/ Cheung Kong,et al.“对具有不同学习背景的大学生的人工智能素养课程的评估”。计算机与教育:人工智能,第2卷,第1期,2021,第100020页,https:/ Tsz-Kit Ng等人,“人工智能素养的概念化:探索性综述”,计算机与教育:人工智能,2021年第2卷,第100041页,https:/doi.org/10.1016/j

    212、.caeai.2021.100041.教师需求与指导教师需求与指导教师需要人工智能技术的知识来实现对学生的人工智能素养和教育。然而,不到三分之一的教师接受过人工智能培训2024年的一项调查发现,71%的K-12教师没有接受过在两党众议院人工智能工作组xcvii课堂上使用人工智能的专业学习。43教育工作者和管理人员必须同时学习操作特定的人工智能产品,并了解更广泛的人工智能系统如何融入他们的日常活动。考虑到教师在地区或全州范围内的个人需求,这种整合可能变化很大,并受到不同司法管辖区和基于地点的需求的影响。随着人工智能系统越来越多地融入课堂,教育工作者和管理人员将需要工具和资源来识别不利结果。此外,

    213、这些资源的分布在全国范围内变化很大,某些人群,包括那些有各种残疾的人,可能无法获得人工智能系统可以带来的积极好处。学术诚信是各级教师、教育工作者和管理人员最关心的问题。一些学生使用生成式人工智能工具在作业中作弊或抄袭。学区和大学很难制定政策来描述不当行为并管理学术诚信。这一领域的主要挑战之一是缺乏有效的人工智能检测软件。一些检测系统已被证明是不准确的,而另一些则会产生有偏见的结果。例如,一些检测系统无意中指责了多语种学生,因为这些系统是使用母语人士的写作样本进行训练的。45来源:教育周刊-教师迫切需要人工智能培训。有多少人得到它?43Lauraine Langreo,“教师迫切需要人工智能培训

    214、。有多少人正在接受培训?”,教育周刊,2024年3月25日,https:/www.edweek.org/technology/teachers-desperately-need-ai-training-how-many-are-getting-it/2024/03.44Elkhatat,A.M.,Elsaid,K.&Almeer,S.评估人工智能内容检测工具在区分人类和人工智能生成的文本方面的功效。2023.https:/doi.org/10.1007/s40979-023-00140-5.45Weixin Liang等人,“GPT检测器对非母语英语作家有偏见”,模式4,第7期(2023),h

    215、ttps:/doi.org/10.1016/j.patter.2023.100779.两党众议院人工智能工作组xcviii各州开始在其学区努力应对这项技术。截至2024年6月,只有12个州亚利桑那州、加利福尼亚州、印第安纳州、密歇根州、密西西比州、北卡罗来纳州、俄亥俄州、俄克拉荷马州、俄勒冈州、弗吉尼亚州、华盛顿州和西弗吉尼亚州发布了州教育部或其他组织的人工智能相关指导。46地区和高等教育机构在使用人工智能工具方面也存在显著差异。一些系统已经禁止了人工智能系统(或正在重新考虑其禁令),47一些系统已经制定了适当使用的政策,48而还有一些系统已经建立了自己的人工智能教育工具。49由于教育工作者和

    216、管理人员往往缺乏教授人工智能素养和将人工智能工具纳入课堂的培训和资源,联邦、州和地方政府将需要与管理人员合作,使教育工作者能够做到这一点。同样,教师和管理人员将需要采取新的策略来管理高等教育环境中的人工智能使用。机构可以通过提供明确的指导方针和培训来支持他们的教师,使他们能够识别课程中的好处和局限性,并确定是否以及如何将人工智能整合到他们的课堂和作业中。联邦、州和地方政府应支持各机构为其教师提供这些指导方针和培训。人工智能对劳动力的影响人工智能对劳动力的影响几个世纪以来,人类工作的自动化一直在充满希望和担忧的情况下发生。最新的技术进步包括机器学习和传统的人工智能技术,如计算机视觉和自动化决策过

    217、程,这些技术在过去二十年中已经变得司空见惯。使用人工智能自动化各个行业的任务,提高了生产率。50然而,这种自动化也导致了一些涉及重复或可预测任务的工作被取代。随着人工智能的进步,企业越来越多地将更先进的人工智能,包括生成性人工智能,融入到这些更简单的任务之外的任务中,包括创造性工作、计算机编程和法律工作。虽然人工智能可能会取代一些工作,但它将增加现有的工作并创造新的工作。创造的一些工作可能需要更高级的技能,如人工智能系统设计、维护和监督;其他人可能需要不太高级的技能,如数据输入或数据标签。46贝基普林格。NEA教育人工智能工作组的报告。全国教育协会,2024年6月,https:/www.nea

    218、.org/sites/default/files/2024-06/report_of_the_nea_task_force_on_artificial_intelligence_in_education_ra_2024.pdf.47席西,迪翁。“尽管担心作弊,学校还是废除了ChatGPT禁令。”纽约时报,2023年,https:/ Partners。https:/ 果不仔细开发和部署,以前依赖于微妙的人类决策的复杂任务的自动化可能会导致较差的结果和较低技能的劳动力。了解和监测技能、工作和角色如何随着人工智能技术的改进而变化,并越来越多地融入经济,这一点至关重要。这些动态将影响进入这些角色的长期

    219、教育和职业途径、社会对工作的看法、54以及税收等宏观经济因素。55培训一支支持人工智能的劳动力培训一支支持人工智能的劳动力利用人工智能系统的优势将需要一支能够将这些系统整合到日常工作中的员工队伍。世界经济论坛预测,在未来十年内,11亿个工作岗位可能会因人工智能等技术而发生根本性变化。56微软的一项调查指出,超过82%的商业领袖表示,增加人工智能的使用将需要他们的员工掌握新技能。5752CVL经济学。未被描绘的未来:生成性人工智能对娱乐业就业的影响,动画协会,2024年,https:/animationguild.org/ai-and-animation/.53全国护士联合会。“人工智能对护理和

    220、医疗保健的影响。”2023,54Mirbabaie,M.,Brnker,F.,Mllmann-Frick,N.R.J.等人。人工智能的兴起了解工作场所的人工智能身份威胁。电子市场32,73-99(2022)。55Daron Acemoglu等人,税收、自动化和劳动力的未来。麻省理工学院斯隆管理学院,2023年,56普雷斯顿福尔。“为了解决人工智能日益扩大的技能差距,IBM承诺在未来3年内培训200万人,财富杂志推荐“财富,2023年9月29日,https:/ Tamayo等人,“人工智能时代的再培训”,哈佛商业评论,2023年9月,64经合组织(2021),企业培训:来自100个案例研究的新证

    221、据,正确掌握技能,经合组织出版社,巴黎,65亚历山德拉马泰斯库。“解释者:挑战工人数据化”。数据与社会,2023年11月,https:/ 7亚历山德拉马泰斯库和马德琳克莱尔埃利什。情境中的人工智能:整合新技术的劳动,数据与社会,2019年,https:/ Lazar和Cody Yorke。“工作时观察:工作场所监控人工智能的使用增加。”路透社,2023年4月25日,https:/ Verge,2019年4月25日,https:/ Warrick,“人工智能在职业安全与健康实践(OSH)中的作用”,美国联邦公共卫生新闻,2024年,75前71页。76亚历山大赫特尔费尔南德斯。“评估工作中自动化管

    222、理和监控技术的普及率及其对工人福祉的影响。”华盛顿公平增长中心,2023年,https:/equitablegrowth.org/research-paper/estimating-the-prevalence-of-automated-management-and-surveillance-technologies-at-work-and-their-impact-on-workers-well-being/.两党众议院人工智能工作组civ监测、理解和预测劳动力趋势,包括工资,对于为教育和社会政策提供信息以及预测税收收入至关重要。国会应继续与各机构合作,监测各行业、职业和技能组合的需求变化,

    223、以了解人工智能对劳动力的影响,包括非人工智能工作。现有的工人脱产、再培训和技能提升计划现有的工人脱产、再培训和技能提升计划有几个现有的劳动力发展计划可以更新,以应对人工智能带来的变化。这些计划包括:根据劳动力创新与机会法案授权的计划。77WIOA要求各州从战略上调整其劳动力发展计划,以协调求职者和雇主的需求。WIOA的资金从未达到授权水平。WIOA的下岗工人计划由以下机构资助2023财年为10.95亿美元,2022年(有可用数据的最近一年)仅为212018人提供了服务。78此外,WIOA下岗工人计划强调短期培训,这是快速再就业的有效工具,但自动化创造的许多新工作可能需要更高的技能水平,因此需要

    224、更长的培训时间。通过WIOA获得的一些最常见的证书是低薪职业,如护理助理。合格培训提供商名单上培训项目的年收入中位数为29388美元。贸易调整援助(TAA)。DOL的TAA于2022年结束,但在此之前,它通过提供培训、就业和案件管理服务、求职和搬迁津贴以及工资保险,帮助因外贸而失业的工人在需求旺盛的行业重新就业。它的成本2019财年为5.821亿美元,为28751名参与者提供服务。失业保险(UI)。劳工部负责监督UI计划,该计划为那些在寻求再就业时非因自身过错而失业的工人提供收入支持。教育和基于工作的学习计划。虽然没有专门针对失业工人,但劳工部就业和培训管理局提供培训计划和其他服务,包括技能培

    225、训补助金、成人扫盲和教育倡议以及基于工作的学习计划提供教育、培训和学习机会,为个人未来的就业做好准备。77前25条。78美国劳工、就业和培训管理局。2022年4月WIOA国家绩效总结。美国劳工部,2022年,https:/www.dol.gov/sites/dolgov/files/ETA/Performance/pdfs/PY2022/PY%202022%20WIOA%20National%20Performance%20摘要.pdf。79David Deming等人,“公共职业培训导航:哈佛大学劳动力项目”,哈佛大学肯尼迪学院,2023年,两党众议院人工智能工作组cv应考虑做出额外努力,包

    226、括与州、地方或非政府实体建立伙伴关系,以支持工人和劳动力的技能培训和再技能培训。适应现代需求的劳动法适应现代需求的劳动法在劳动力中部署人工智能的雇主必须遵守反歧视和劳动法。现行法律保护员工和求职者免受基于种族、肤色、宗教、性别和国籍的就业歧视,以及残疾歧视。平等就业机会委员会(EEOC)发布了关于雇主使用AI的指导。80 81平等就业机会委员需要持续的支持,以确保非歧视保护得到充分执行。此外,国会应调查透明度立法,以确保在工作场所部署的人工智能技术不会侵犯工人的权利。请参阅“公民权利公民权利”一章,了解更多关于在人工智能时代推进公民权利保护的讨论。工作场所使用的人工智能必须尊重国家劳动关系法规

    227、定的现有工人和雇主的权利。几十年来,美国劳动和就业法一直规范着工作场所的组织和谈判活动。作为人工智能广泛影响的一个例子,国家劳动关系委员会(NLRB)已经完成了新兴技术与这些法律下受保护活动或不公平做法相互作用的工作。82职业安全与健康法(P.L.91-596)要求雇主为工人提供一个没有公认危险的工作场所。83职业安全与卫生管理局(OSHA)应监督其标准或推荐做法,并随着人工智能技术越来越多地融入工作场所而要求更新。国会还可以考虑通过立法支持国家职业安全与健康研究所的研究,以研究人工智能技术如何增强或降低工作场所的安全和福祉。8480美国平等就业机会委员会。美国残疾人法案与软件、算法和人工智能

    228、的使用。美国平等就业机会委员会,2023年,https:/www.eeoc.gov/laws/guidance/americans-disabilities-act-and-use-software-algorithms-and-artificial-intelligence.8 1美国平等就业机会委员会。“平等就业机会委员会发布关于人工智能和第七条的新资源。”美国平等就业机会委员,2023年,https:/www.eeoc.gov/newsroom/eeoc-releases-new-resource-artificial-intelligence-and-title-vii.82全国劳动关

    229、系委员会。“NLRB总法律顾问发布关于非法电子监控和监视的备忘录。”美国国家劳动关系委员会,2023年,美国国会,第83页。1970年职业安全与健康法。1970年12月29日第91-596号公法。美国普通法规,第84卷,第1590-1620页。政府资讯,84-Pg1590.pdf。84杰伊维塔斯。“人工智能在未来工作中的作用。”美国疾病控制与预防中心。NIOSH科学博客,2021年5月24日,https:/blogs.cdc.gov/niosh-science-blog/2021/05/24/ai-future-of-work/.两党众议院人工智能工作组cvi工人将继续成为人工智能系统开发的重

    230、要投入。国会应确保监督这些工人的政策是公平和道德的。国会可以探索其管辖范围内的立法和监督活动,以促进健全的工作原则。例如,联邦政府可以确保为联邦项目和联邦资助的研究制定适当的数据标签或强化学习工作标准。主要发现主要发现人工智能越来越多地被雇主和雇员用于工作场所。人工智能越来越多地被雇主和雇员用于工作场所。工人可能会越来越多地与人工智能系统一起工作,这将需要提高人工智能劳动力技能的途径。培养国内人工智能人才和美国的持续领导地位将需要大幅改善基础培养国内人工智能人才和美国的持续领导地位将需要大幅改善基础STEMSTEM教育和培训。教育和培训。其他国家在K-12数学和科学教育方面领先于美国。为了满足

    231、美国人工智能行业的未来需求,需要通过劳动力培训和K-12教育来增强人工智能技能。通过利用更熟练的技术劳动力,美国的人工智能领导力将得到加强。通过利用更熟练的技术劳动力,美国的人工智能领导力将得到加强。科学和工程领域的高技能劳动力,没有学士学位或以上学历,可以增加美国人工智能人才的数量。这些劳动力可以通过人工智能相关的证书计划和行业培训计划进行培训。在美国采用人工智能需要具备人工智能素养。在美国采用人工智能需要具备人工智能素养。对人工智能缺乏了解可能会导致公众避免使用人工智能产品,错过提高生产力或改善生活质量的技术。K-12K-12教育工作者需要资源来提高人工智能素养。教育工作者需要资源来提高人

    232、工智能素养。为了实现学生的人工智能素养和教育,教师需要人工智能技术的知识,包括在课堂上使用人工智能的人工智能培训。两党众议院人工智能工作组cvii建议建议建议:投资建议:投资K-12K-12 STEMSTEM和人工智能教育,扩大参与。和人工智能教育,扩大参与。美国K-12 STEM教育滞后,尤其是与其他国家相比。美国在人工智能领域的持续领导地位将需要有针对性地关注改善K-12 STEM和人工智能教育。联邦政府有几项举措来改善农村和服务不足社区的STEM教育。国会应继续支持这些努力,特别是在与人工智能相关的领域。建议:通过提供所需的人工智能资源来提高美国的人工智能技能。建议:通过提供所需的人工智

    233、能资源来提高美国的人工智能技能。美国人工智能人才管道发展面临的一个关键挑战是,高等教育机构缺乏获取人工智能资源的机会,特别是计算能力和数据。一个潜在的解决方案是NAIRR试点(在研究、开发和标研究、开发和标准准一章中讨论),它将美国研究人员和教育工作者与计算、数据、软件、模型和培训资源联系起来。建议:全面了解美国的人工智能劳动力。建议:全面了解美国的人工智能劳动力。了解人工智能劳动力,包括定义角色和技能,对于为人工智能创建教育和人才管道至关重要。目前对“人工智能劳动力”的构成知之甚少,包括人口构成、劳动力随时间的变化、就业差距以及人工智能相关工作在各个行业的渗透。此外,与人工智能相关的工作角色

    234、、工作类别、任务、技能组合和能力都不发达,而且往往不明确。如果没有关于人工智能劳动力的良好数据,就很难理解这一重要劳动力群体的能力、差距和需求。国会可以确保联邦机构支持广泛、有序的数据分析,以监控人工智能劳动力的状态。支持更好的数据可以帮助政策制定者集中精力和投资,以解决人工智能劳动力中的差距和差异,包括人口差异。其中一些工作目前由劳工统计局和国家科学与工程统计中心完成。8585Hill,国 家 科 学 与 工 程 统 计 中 心。人 工 智 能 与 技 术:国 家 视 角。国 家 科 学 基 金,2020,https:/ncses.nsf.gov/pubs/nsb20205/artifici

    235、al-intelligence-technology.两党众议院人工智能工作组cviii建议:促进公私伙伴关系,以加强人工智能劳动力。建议:促进公私伙伴关系,以加强人工智能劳动力。美国可以通过促进全国不同地区的公私伙伴关系来改善其与人工智能相关的教育和劳动力发展活动。教育机构、联邦和州政府以及行业之间的合作有效地将教育和劳动力发展与市场需求和新兴技术相结合。为了培养美国在人工智能领域持续领先所需的人工智能劳动力,必须在各个层面建立伙伴关系,包括与雇主、培训提供商、社区组织、工会、职业和技术教育组织、经济发展组织和其他公共部门组织等关键劳动力利益相关者建立伙伴关系。建议:在支持政府建议:在支持政

    236、府-大学大学-产业伙伴关系时,发展区域专业知识。产业伙伴关系时,发展区域专业知识。国会应支持教育和劳动力发展方面的公私伙伴关系,以加强劳动力进入人工智能工作的途径。不同地区将有自己的行业,有各自的需求,雇主主导的劳动力发展活动可能因地区而异。支持区域专业知识将促进人工智能培训的公平和广泛分布,以及它带来的经济机会。为了支持这些成果,国会应该支持国家科学基金会、能源部和经济发展管理局的区域创新项目。建议:为所有美国人拓宽通往人工智能劳动力的途径。建议:为所有美国人拓宽通往人工智能劳动力的途径。美国可以通过实现基于技能的招聘、开发人工智能劳动力框架以及研究如何消除劳动力参与障碍来加强人工智能劳动力

    237、。国会应该探索如何更新劳动力培训计划和非传统招聘途径,以满足对人工智能从业者日益增长的需求,并确保人工智能求职者能够成功地从职业教育和技能提升计划转向专业的人工智能劳动力。基于技能的招聘将扩大人才库,使没有学士学位的申请人更容易展示他们的技能,并将有助于消除历史上代表性不足的群体的就业障碍。86国会应为公共和私营部门制定更好的指导和战略,以实施基于技能的招聘实践和人工智能相关领域和学科的专业认证和证书标准。86人事管理办公室。OPM发布基于技能的招聘指南。首席人力资本官委员会,2024年,https:/www.chcoc.gov/content/artificial-intelligence-

    238、classification-policy-and-talent-acquisition-guidance-ai-government.两党众议院人工智能工作组cix建议:支持人工智能相关工作的工作角色、工作类别、任务、技能和能力的标准化。建议:支持人工智能相关工作的工作角色、工作类别、任务、技能和能力的标准化。应探索立法,以支持对人工智能相关任务和能力的共同理解和词汇,以解决这些问题。联邦机构应支持广泛、有序的数据分析,以监控人工智能劳动力的状态。支持更好的数据可以帮助政策制定者集中精力和投资,以解决人工智能劳动力中的差距和差异,包括人口差异。立法可以改进和简化此类数据收集。建议:评估现有的

    239、劳动力发展计划。建议:评估现有的劳动力发展计划。人工智能的快速采用可能会取代一些工作角色并导致失业。本章讨论了几个现有的美国联邦劳动力发展计划,以解决工人失业问题,支持再培训,并减轻自动化的其他不利影响。国会应该评估这些计划。它们可能需要扩展或更新,以充分应对人工智能带来的新挑战。国会还应考虑是否应利用其他计划,包括与州、地方或非政府实体的伙伴关系,来实施工人和劳动力技能培训和再技能培训。建议:在美国各地推广人工智能素养。建议:在美国各地推广人工智能素养。人工智能素养对于美国公众负责任地使用和应对人工智能技术至关重要。美国需要促进对人工智能技术及其社会影响的基本理解,类似于基本的数字素养。联邦

    240、政府继续支持现有的计划和方法,将人工智能公平地扩展到课堂环境,这对于将人工智能纳入我国的学校系统至关重要。联邦机构应为专业发展和教师在课堂上使用这些技术的准备提供支持,特别是以符合学生学习目标的方式。NSF和ED都有专注于使教育工作者和管理人员能够接受这种培训的计划,例如NSF的教师队伍、NSF的全民计算机科学和ED的教师质量合作伙伴关系。两党众议院人工智能工作组cxi建议:为美国教育工作者提供人工智能培训和资源。建议:为美国教育工作者提供人工智能培训和资源。国会应探索利用联邦资金,如每个学生成功法案87第II-A和IV-A条资金,用于人工智能素养的专业学习和教育工作者发展。联邦政府对这些项目

    241、的持续支持将使教育工作者能够将人工智能纳入我国的K-12学校系统。州教育机构和学区经常花费大量时间和精力为学校系统选择产品。国会和政府应该支持这些政策制定者选择这些产品。使用某些人工智能教育工具的预算影响也可能不清楚,难以量化。ED的What Works Clearinghouse88等项目可以成为指导评估工作的有用模型,以帮助为这些决策提供信息。建议:支持建议:支持NSFNSF课程开发。课程开发。国会应通过对高等教育机构、行业联盟和教育非营利组织的竞争性奖励,支持国家自然科学基金促进人工智能相关领域课程开发的努力。国会还应探索其他机制来支持这些课程的采用,例如通过教育部支持的项目以及州教育实

    242、体、联邦实体、行业、教育非营利组织和高等教育机构之间的伙伴关系。建议:监测劳动法和工人保护与人工智能采用的相互作用。建议:监测劳动法和工人保护与人工智能采用的相互作用。随着人工智能继续推动工人生产力的提高和经济繁荣,整个经济应该分享这些生产力的提高。在劳动力中部署人工智能的雇主必须遵守现有的反歧视和劳动标准。然而,在理解现有法律如何适用于新的人工智能技术以及如何执行这些法律方面可能存在差距。国会应监督这些发展,以确保现行法律充分满足现代工人和雇主的需求。87联邦公报办公室、国家档案和记录管理局。公法114-95-每个学生成功法案。美国政府出版办公室,2015年12月9日,https:/www.

    243、govinfo.gov/app/details/PLAW-114publ95.88教育科学研究所,“What Works Clearinghouse(WWC)”,IES:美国教育部教育科学研究院,两党众议院人工智能工作组cxii背景背景人工智能技术的进步为知识产权法带来了新的问题,提出了如何对待艺术、文字、品牌、发明和其他创作的所有权、创作和保护的问题。生成性人工智能技术已经变得更加擅长类似于人类创造力的任务,这引发了关于如何在我们的知识产权法下处理使用生成性人工智慧创作的作品的进一步问题。美国存在四大类知识产权:专利、商标、版权和商业秘密。1专利和版权通常受联邦法律保护。2相比之下,商标和商

    244、业秘密受州和联邦法律的保护。31特里萨韦里根。“保护美国的知识产权:英国中小企业指南”。美国专利商标局,2018年3月15日,www.uspto.gov/sites/default/files/documents/UK-SME-IP-Toolkit_FINAL.pdf。2众议院,国会。美国法典第17卷第301条其他法律规定的优先购买权。美国政府出版局,另见:Bonito Boats,股份有限公司诉Thunder Craft Boats(股份有限公司),489 U.S.141152(1989)(“因此,我们过去的决定明确表明,国家对知识产权的监管必须在与国会在我们的专利法中达成的平衡相冲突的程度

    245、上让步”)。3克里斯托弗T齐波利。“人工智能促使人们重新考虑联邦公开权。”国会研究服务部,2024年1月29日,https:/crsreports.congress.gov/product/pdf/LSB/LSB11052.(“现有的联邦知识产权法提供了这两种方法的例子,因为专利法和版权法在很大程度上优先于州法律,而兰哈姆法案和捍卫商业秘密法案则没有。”)。两党众议院人工智能工作组cxiii专利专利实用专利保护新的和有用的工艺、机器、制品、物质成分或其改进。4根据第35篇,这样的发明必须是新颖的,并且不能在先前的技术或知识(“现有技术”)中已经存在,才能获得专利。5此外,要求保护的发明不能仅仅

    246、是对现有技术的明显改进。6此外,专利文件本身必须满足某些要求,包括披露、细节水平和语言特异性等。7这些要求反映了专利作为一种交易的基本性质,在这种交易中,创新者通过在有限的时间内授予某些合法权利来激励他们创造真正的新发明,社会从这些发明的公开披露中受益,使其他创新者能够从中学习并发展进一步的创新。美国专利是通过向美国专利商标局(USPTO)提交专利申请而获得的,USPTO在授予专利之前会审查申请以确定其是否符合所有相关的法定标准(如上所述)。9专利一旦颁发,通常从最初向USPTO提交申请之日起为期20年。104众议院,国会。美国法典第35卷第101条可申请专利的发明。美国政府出版办公室,htt

    247、ps:/www.govinfo.gov/app/details/USCODE-2023-title35/USCODE-2023-title35-partII-chap10-sec101;另见:上文1。5众议院,国会。美国法典第35卷第102条可专利性条件;新奇。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title35/USCODE-2023-title35-partII-chap10-sec1026众议院,国会。美国法典第35卷第103条可专利性条件;不明显的主题。美国政府出版办公室,7众议院,国会。35U.S.C.112

    248、-规范。美国政府出版办公室,8Amgen等人诉赛诺菲等人,143 S.Ct.1243,1251(2023)(“作为通过披露将新设计和技术带入公共领域从而使所有人受益的交换,发明人将获得有限的免受竞争性剥削的保护”)。9众议院,国会。美国法典第35卷第2节-权力和职责。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title35/USCODE-2023-title35-partI-chap1-sec2;另见:众议院、国会。35 U.S.C.131-申请审查。美国政府出版办公室,https:/www.govinfo.gov/app

    249、/details/USCODE-2023-title35/USCODE-2023-title35-partII-chap12-sec131.10众议院,国会。35 U.S.C.154-专利的内容和期限;临时权利。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title35/USCODE-2023-title35-partII-chap14-sec154.两党众议院人工智能工作组cxiv版权版权版权在作者在世期间和之后的有限时间内保护原创作品。11版权是一种知识产权形式,保护音乐、文学作品、视觉艺术和电影、电视节目等视听作品等创

    250、造性作品。12一旦作品被创作并固定在有形媒介上(例如,写下来或记录下来),作者/艺术家就会自动拥有该作品的版权。13重要的是,版权保护的范围仅限于作品的表达部分,不延伸到“任何想法、程序、过程、系统、操作方法、概念、原则或发现,无论其在作品中以何种形式描述、解释、说明或体现。”14除 非 版 权在美国版权局(USCO)注册,否则版权保护也受到限制。15版权注册使版权所有者能够提起侵权诉讼,并获得所有可用的补救措施。16版权赋予其所有者版权法列举的“一揽子”权利。17其中包括“以副本或录音制品形式复制受版权保护的作品”和“根据受版权保护作品制作衍生作品”的权利。18要复制作品或制作衍生作品(或其

    251、他受保护的行为),必须首先获得版权所有者的许可(即许可证)。19作品是否可公开访问或可自由用于某些用途(例如观看),对其他用途(例如复制/拷贝、衍生作品)是否需要许可证没有法律效力。2011前1条。12众议院,国会。美国法典第17卷第102节-版权主题:一般。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title17/USCODE-2023-title17-chap1-sec102.13同上。14同上。15众议院,国会。美国法典第17卷第401条-版权声明:视觉上可感知的副本。美国政府出版办公室,https:/www.gov

    252、info.gov/app/details/USCODE-2023-title17/USCODE-2023-title17-chap4-sec401;另见:众议院、国会。17 U.S.C.502-侵权救济:禁令。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title17/USCODE-2023-title17-chap5-sec502;另见:众议院、国会。美国法典第17卷第503节-侵权救济:侵权物品的扣押和处置。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-

    253、title17/USCODE-2023-title17-chap5-sec503;另见:众议院、国会。17 U.S.C.504-侵权救济:损害赔偿和利润。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title17/USCODE-2023-title17-chap5-sec504;另见:众议院、国会。17 U.S.C.505-侵权补救措施:费用和律师费。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title17/USCODE-2023-title17-cha

    254、p5-sec50516同上。17众议院,国会。17 U.S.C.106-版权作品的专有权。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title17/USCODE-2023-title17-chap1-sec106.18同上。19同上(“本标题下的版权所有者拥有独家权利,可以进行和授权”)20同上。;另见:众议院、国会。17 U.S.C.201-版权所有权。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title17/USCODE-2023-title17-

    255、chap2-sec201.两党众议院人工智能工作组cxv除了上述“想法”限制外,对与人工智能相关的版权所有者权利的另一个重要限制是“合理使用”,即根据对某些法定因素的分析,未经许可使用被定义为非侵权的版权作品。21合理使用分析中的四个法定因素是:(1)版权作品的性质;(2)与整个作品相关的使用部分的数量和实质性(即使用了多少以及它对作品的重要性);(3)使用对作品价值的影响;以及(4)使用的目的和性质(例如,商业目的、教育目的、研究目的、批评/评论/模仿等)。22除其他外,合理使用例外防止版权被用来扼杀受第一修正案保护的言论自由。23商业秘密商业秘密包括任何作为秘密保存的、具有商业价值的信息,

    256、并已采取合理措施保护和保密。24与专利和版权不同,只要满足要求的条件,商业秘密就不会过期。25与专利不同,专利的侵权基于严格责任(即不要求有“不良”行为或意图),商业秘密索赔仅在商业秘密是通过“不正当”手段获得的情况下产生,如盗窃、虚假陈述、违反保密义务或间谍活动。26例如,当商业机密是通过独立发现或逆向工程获得的时,就不会产生索赔。27商标商标(用于商品)和服务标志(用于服务)是识别和区分商品或服务来源的单词、短语、符号或设计,或其组合。28与版权类似,只有当商标在美国专利商标局注册时,才能获得联邦商标法的充分保护,该局要求商标必须在商业中使用或打算用于商业。29与专利和版权不同,只要采取必

    257、要的续期行动,商标就不会过期。3021众议院,国会。美国法典第17卷第107节-专有权限制:合理使用。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title17/USCODE-2023-title17-chap1-sec107.22同上。23Eldred诉Ashcroft案,美国最高法院判例汇编第537卷第186、219页(2003年)(“除了刺激新表达的创作和出版外,版权法还包含第一修正案的内置条款合理使用辩护允许公众在某些情况下不仅使用受版权保护的作品中包含的事实和想法,还可以使用表达本身。”)(引文省略)。24前1。2

    258、5“商业秘密知识产权工具包-美国专利商标局。”美国专利商标署,2023年10月17日,www.USPTO.gov/sites/default/files/documents/tradeceecretsiptoolkit.pdf。26同上。27同上。28前1条。29“商标常见问题解答”。美国专利商标局,2014年8月5日,www.uspto.gov/学习和资源/商标常见问题#type-browse-FAQs_1223。30Id。两党众议院人工智能工作组cxvi其他类似知识产权的权利除了四种传统的知识产权类别外,某些“人格”权利在美国得到承认,有时被视为知识产权。首先,根据联邦法律,商标法(也称为

    259、兰哈姆法)第43(a)条为以误导消费者的方式将个人肖像用于商业用途提供了有限的诉因,即该个人对产品、服务或企业/组织的隶属关系、联系或背书。31然而,这种索赔要求最低限度的知名度或可识别性,否则无法提出索赔。32此外,根据各州法律,个人的姓名、形象、肖像和声音可以受到隐私权法的保护;宣传权法,包括姓名权、肖像权和肖像权的变更;以及反报复色情法等。大多数州都颁布了某种形式的立法来解决这些问题。田纳西州和得克萨斯州等33个州已经制定了对姓名、形象和肖像的成文法和普通法保护,而纽约州等其他州则完全依赖法定条款。每个州的法律都不同,有自己的细微差别和限制。34人工智能引发的知识产权问题人工智能引发的知

    260、识产权问题尤其是生成式人工智能的快速发展,引发了许多与知识产权相关的问题,主要集中在四个基本领域:(1)将受知识产权保护的作品用于训练人工智能系统;(2)知识产权的含义以及人工智能系统输出的知识产权保护的可用性;(3)人工智能系统的培训、功能和输出的透明度;以及(4)保护个人的“人格”权利免受人工智能系统的滥用。人工智能模型的训练和知识产权保护作品的摄入一般来说,生成性人工智能模型是通过机器学习使用大量数据进行训练的。35这些训练数据的大部分,也称为语料库,将根据模型的目的进行定制。例如,大型语言模型(LLM)是在大量不同形式的语言(例如,文章、网页和互联网上的所有文本文档)上训练的。31众

    261、议 院,国 会。15 U.S.C.1125-禁 止 虚 假 原 产 地 名 称、虚 假 描 述 和 稀 释。美 国 政 府 出 版 办 公 室,https:/www.govinfo.gov/app/details/USCODE-2023-title15/USCODE-2023-title15-chap22-subchapIII-sec1125.32伊莱克特拉诉59默里进入。,联邦地区法院判例汇编第三辑第987卷第233、258页(2021年第二巡回法庭)。33“NIL立法跟踪器”。Saul Ewing LLP,2023年1月1日,www.S E.Rothman,“逐州宣传权”。Rothman宣

    262、传权路线图,2015年8月5日,https:/ AI,2023年6月9日,M ronger in Intellectual-Property Law-d8ee1b6c55ee;另见:布里坦、布莱克。“盖蒂图片社诉讼称稳定人工智能滥用照片来训练人工智能。”路透社,2023年2月6日,www.R M.和Ryan Mac。纽约时报,2023年12月27日, Guild v.Google,股份有限公司,联邦地区法院判例汇编第三辑第804卷第202页(第二巡回法庭,2015年)。47同上。48前42条。49Supra 45(“盖蒂图片社的诉讼称,稳定扩散有时会产生与盖蒂图片社高度相似和衍生的图像。一项研

    263、究发现,在稳定扩散创建的图像中,不到2%的图像存在大量复制,但作者声称,他们的方法可能低估了复制的真实率。”);另见:Supra 40。50前40。版权所有者已经对人工智能公司提起了几起诉讼,包括盖蒂图片社对Stability AI的诉讼(照片),纽约时报对OpenAI的诉讼(新闻文章),以及音乐出版商对Anthropic的诉讼(歌词)。51Rosenblatt,Bill。“媒体行业对人工智能内容许可的竞争”。福布斯,2024年7月18日,www.F Guild v.Google,股份有限公司,联邦地区法院判例汇编第三辑第804卷第202页(第二巡回法庭,2015年);另见:Gil Appel

    264、等人,生成性人工智能存在知识产权问题,哈佛商业评论,2023年4月7日,https:/hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem.62同上。;另见:Andy Warhol视觉艺术基金会,股份有限公司诉Goldsmith,598 U.S.508(2023)。63同上。;上文第21段。64联邦公报办公室、国家档案和记录管理局。88 FR 16190-版权注册指南:包含人工智能生成材料的作品。美国国家档案和记录管理局联邦公报办公室,https:/www.govinfo.gov/app/details/FR-20

    265、23-03-16/2023-05321.65美国版权局。“版权局推出新的人工智能计划。”NewsNet第1004期|美国版权局,2023年3月16日,66美国版权局。“2023年春季AI听力会议。”2023年春季人工智能听力会议|美国版权局,2023,www.Copyright.gov/AI/Listening-Sessions.html?loclr=eanco。与会者包括来自微软(文学作品)、Jasper AI(视觉艺术)、美国电影协会(视听作品)、Spotify(音乐)和其他利益相关者的参与者。诺拉州谢兰67号。“我们的人工智能之夏:版权局举办了两场关于版权和人工智能的网络研讨会。”美国国

    266、会图书馆,2023年8月23日,https:/blogs.loc.gov/copyright/2023/08/our-summer-of-artificial-intelligence-copyright-office-hosts-two-webinars-on-copyright-and-ai/.;另见:美国版权局,网络研讨会:包含人工智能生成内容的作品注册指南,https:/copyright.gov/events/ai-application-process/?loclr=eanco.另见:美国版权局,国际版权问题与人工智能,2024年8月26日,https:/www.copyright

    267、.gov/events/international-ai-copyright-webinar/?loclr=eanco.两党众议院人工智能工作组cxxiUSCO的指导意见表明,版权注册仅适用于人类创作的材料。68法院发现,宪法和版权法中使用的“作者”一词排除了非人类。69然而,该指导意见并没有试图禁止在注册作品中使用人工智能。相反,它指出了Burrow-Giles Lithography Co.诉Sarony,这是一个关于使用相机技术的最高法院案件,法院在该案件中裁定,只要照片代表“人类作者的原始智力概念”,照片就可以获得版权。70当寻求注册由人工智能生成或在人工智能协助下创作的作品时,USC

    268、O指南解释说,那些在创作中使用人工智能的人只能为他们的人类贡献申请版权保护。71例如,如果人工智能仅根据提示(如要求威廉莎士比亚风格的诗歌的简单提示)确定并执行“传统作者要素”,则根据USCO,生成的材料不是人类作者的产物。72相反,“人类可以以一种足够有创意的方式选择或安排人工智能生成的材料,使由此产生的作品作为一个整体构成原创作品。”73在该指导下,申请人必须明确识别人工创作的部分,并明确排除人工智能生成超过最低限度的内容。74如果申请人之前提交过或有未充分披露人工智能参与的未决申请,他们必须纠正这些遗漏,以确保注册的有效性。75未能准确代表人工智能的贡献可能会导致注册取消或在侵权案件中面

    269、临法律挑战。76目前尚不清楚USCO将如何管理其指导中提出的规则和标准。确定人工智能辅助作品中可保护部分的人类作者身份需要哪些信息,以及需要多少信息,还有待确定。USCO通常不会调查版权注册中作者声明的真实性。77当人类和人工智能生成的输出混合在一起创建作品时,如何排除人工智能生成部分的问题仍然存在。68前64条。69同上。70同上。此外,USCO还注意到其他法院案件,认为“非人类精神生物”或动物创作的作品,如猴子拍照,不符合版权保护条件。71同上。72同上。73同上。74同上。75Id。76同上。77美国版权局惯例汇编,第503.2节(2021年第3版)。https:/www.copyrig

    270、ht.gov/comp3/chap500/ch500-identifying-works.pdf.除了关于人工智能辅助作品注册的指导外,USCO还于2023年8月30日发布了一份调查通知(NOI),作为其人工智能倡议的一部分。78 NOI要求利益相关者就人工智能涉及的一系列版权问题发表意见,包括人工智能生成输出的法律地位。79截至2023年12月,USCO已收到10000多条评论。80部分基于收到的反馈,USCO正在就这些问题发布一系列报告,预计将发布一份关于人工智能协助作品的作者和版权注册的报告。81两党众议院人工智能工作组cxxii与此同时,USCO已经发布了一些决定,拒绝注册使用人工智能

    271、工具创建或修改的作品。2023年9月5日,USCO版权审查委员会(CRB)发布了一项决定,拒绝注册使用人工智能工具创作的作品,理由是创作者拒绝放弃“由人工智能生成”的作品中“微不足道”的部分。822023年12月11日,CRB确认了USCO的决定,即拒绝注册一件以文森特梵高的星夜风格的照片为特色的艺术作品。83申请人使用了RAGHAV一种人工智能工具使用户能够从选择基础图像和风格图像开始,确定风格图像应应用于基础图像的级别,然后让人工智能生成最终输出图像。84CRB认为申请人不能注册输出图像。85它解释说,“为风格过滤器选择一个数字是一种不受版权保护的最低作者身份。”86著作权问题也在法庭上提

    272、出。2023年8月18日,美国哥伦比亚特区地方法院维持了USCO拒绝Stephen Thaler拥有的计算机系统创作的艺术品注册的决定。8778美国版权局,版权局发布关于版权和人工智能的调查通知,2023年8月30日,https:/www.copyright.gov/newsnet/2023/1017.html?utm_campaign=subscriptioncenter&utm_%20content=&utm_medium=电子邮件&utm_name=&utm_source=govdelivery&utm_term=。“该办公室正在对生成式人工智能提出的版权法和政策问题进行研究,并评估是否

    273、需要采取立法或监管措施。”79同上。80美国版权所有,人工智能研究,https:/www.copyright.gov/policy/artificial-intelligence/.81同上。最近发布了第一份报告,其中涉及数字复制品。;另见:美国版权局,版权与人工智能:第1部分:数字复制品,2024年7月,https:/www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-1-Digital-Replicas-Report.pdf.82在空间歌剧院(美国版权所有,上诉委员会,2023年9月5日)中,https:/www.

    274、copyright.gov/rulings-filings/review-board/docs/Theatre-Dopera-Spatial.pdf.83在Suryast案(美国版权上诉委员会,2023年12月11日)中,https:/www.copyright.gov/rulings-filings/review-board/docs/SURYAST.pdf.84Id。85Id。86同上。87Thaler诉Perlmutter案,案件编号1:22-cv-01564,附文(哥伦比亚特区2023年8月18日),https:/www.copyright.gov/ai/docs/district-c

    275、ourt-decision-affirming-refusal-of-registration.pdf.(塞勒先生试图注册作品,将计算机系统列为作者,而他自己只是所有者。双方就“完全由没有人类参与的人工系统生成的作品是否有资格获得版权”的问题提出了即决判决。法院认定“人的作者身份是有效版权主张的重要组成部分”,并确认了该作品不能注册的决定,解释说“版权从未延伸到保护在没有任何指导性的人为指导下运行的新技术形式生成的作品。人的作者身份是版权的基本要求。”)两党众议院人工智能工作组cxxiii法院认定“人类作者身份是有效版权主张的重要组成部分”,并确认了该作品不能注册的决定,解释说“版权从未延伸到

    276、如此地步保护在没有任何指导性人手的情况下运作的新技术形式所产生的作品人类作者是版权的基本要求。”88法院认为,“根据美国法律,不需要通过承诺独家权利来激励人类行为者,因此版权不是为了让他们获得的。”89该决定目前正在等待上诉。使用人工智能制作创意内容所引发的这些问题已经成倍增加,预计将越来越难以解决。例如,乡村音乐艺术家Randy Travis最近发布了一首新歌Where That Come From,这是他十多年来的第一首歌曲2013年,特拉维斯先生因病毒感染住院,最终导致中风和失语症,使他无法唱歌。91一个专门的人工智能模型在他的声音样本上进行了训练,并用于生成新歌的声乐表演,这首歌经过调

    277、整和编辑,听起来像特拉维斯先生,所有这些都是在他的许可和参与下进行的。92然而,鉴于声乐表演完全由人工智能模型生成的,尽管有人类的指导,目前尚不清楚该录音是否可以根据USCO的新政策在USCO获得版权注册。人工智能、发明和专利性生物医学、制药和软件公司正在大力投资开发人工智能工具,并利用它们来推动各自领域的创新。93如上所述,根据专利法,一项发明必须是有用的、新颖的、非显而易见的,并且针对法定主题才能获得专利。94人工智能辅助的发明提出了与发明权、专利主题资格以及新颖性和非显而易见性相关的问题。同上,第88页,第1-2、8页。同上,第89页,第10页。90Maria Sherman,在AI的帮

    278、助下,Randy Travis恢复了声音。这是他中风后的第一首歌,美联社新闻,2024年5月6日,https:/ the Judicial的互联网,第118届会议(2024年)(Ginkgo Bioworks研究员ClairLaporte的声明),https:/judiciary.house.gov/sites/evo-subsites/republicans-judiciary.house.gov/files/evo-media-document/Laporte%20Testimony.pdf另见:知识产权与与中国的战略竞争:第3部分知识产权盗窃、网络安全和人工智能,第118届会议(2023

    279、年)(CrowdStrike公共政策与战略高级总监Robert Sheldon的声明),https:/judiciary.house.gov/sites/evo-subsites/republicans-judiciary.house.gov/files/evo-media-document/sheldon-testimony_0.pdf.94前5条;另见:众议院、国会。美国法典第17卷第103节-版权主题:汇编和衍生作品。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title17/USCODE-2023-title17-c

    280、hap1-sec103;另见:众议院、国会。美国法典第17卷第112节-对专有权的限制:临时录音。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title17/USCODE-2023-title17-chap1-sec112.两党众议院人工智能工作组cxxiv法院就许多问题发表了意见,美国专利商标局也就人工智能辅助发明发布了一些指导意见,但在利用人工智能辅助创新过程的领域,仍然存在一些问题,给投资者带来了很大的不确定性。发明创造根据美国现行专利法,只有在所有发明人都得到适当披露的情况下,才能颁发专利,只有人类才能被视为发明人。

    281、95这意味着人工智能系统也不能被列为美国专利申请中的发明人。96美国专利商标局最近发布了关于人工智能辅助发明的法律和审查相关问题的指导。该指南规定,虽然人工智能不能被称为发明人,但如果使用人工智能的自然人对所要求的发明做出了“重大”贡献,美国专利商标局将考虑将其视为发明人。97该指南提供了一份“非详尽”的五项“指导原则”清单,以协助确定什么构成重大贡献。98除了指导之外,美国专利商标局还提供了审查员应如何将指导原则应用于人工智能辅助发明的例子。99其中包括人类提示人工智能系统为玩具车生成变速驱动桥设计。100如果人类对设计和测试的贡献被认为是重要的,例如通过对人工智能生成的设计进行实质性的实验

    282、驱动修改,则可以将人类称为发明人。101另一个例子涉及人工智能系统生成大量潜在的新药分子结构,以及人类化学师从中合成、分析和选择有前景的候选化合物进行进一步测试。102如果人类在选择、评估和修改候选化合物方面发挥了重要作用,则可以称人类为发明人。10395Thaler诉Vidal,联邦地区法院判例汇编第43卷第4辑1207页(联邦巡回法院2022年);Mark Masutani和JacobW.S.Schneider,人工智能发明的案例;Thaler诉Vidal,第21-2347号案件(联邦巡回法院),2022年6月7日,https:/ Fed.Reg.100432024年2月13日,https

    283、:/www.federalregister.gov/documents/2024/02/13/2024-02623/inventorship-guidance-for-ai-assisted-inventions.98同上。99同上。100Id。101同上。102同上。103同上。两党众议院人工智能工作组cxxv一般来说,美国专利商标局指导方针所依据的法律原则植根于长期以来关于共同发明人的规则,即当一个特定的人必须被添加为专利的发明人时。必须包括所有(人类)发明人,否则可能导致专利无效。104美国专利商标局的指导方针明确指出,由于缺乏公认的发明者,任何没有人类做出重大贡献的发明(因为它完全是由

    284、人工智能系统产生的)根本无法获得专利。105但在人工智能系统协助的人类发明者的情况下,该指导方针适用联合发明法,要求列出所有做出重大贡献者,但允许省略任何人工智能贡献,因为根据现行法律,人工智能不能成为“发明者”。106该指南设想了一种情况,即专利可能颁发给一个或多个(人类)发明人,其中没有人单独或甚至集体对发明的所有方面做出贡献,因为人工智能对某些方面做出了“贡献”,但在法律上不符合“发明人”的资格,因此不需要列出。该指南指出,在某些情况下,创建或操作人工智能系统的人可能有资格成为发明人,107但它没有深入讨论确定何时会出现这种情况的相关因素。美国专利商标局尚未就其将使用什么程序来确定人类和

    285、人工智能的发明者身份发布进一步的指导。例如,在指导之前,美国专利商标局通常不会质疑或审查专利申请是否正确列出了发明人,这意味着“申请人很少需要提交有关发明人的信息。”108然而,该指南讨论了评估事实和证据,以确定所列的人类发明人是否对发明做出了重大贡献,并强调审查员“有能力要求提交合理必要的信息,以正确审查”专利申请。109目前尚不清楚申请人现在必须提供哪些关于发明的证据,审查员将考虑哪些证据,审查人员将适用哪些标准或准则,以及审查过程和最终专利(如果颁发)的后果。104Pannu诉Iolab公司,联邦地区法院判例汇编第三辑第155卷第1344、1349-50页(联邦巡回法院,1998年);在

    286、VerHoef案中,888 F.3d 1362,1366-67(联邦巡回法院,2018年);潘努,联邦地区法院判例汇编第三辑第155卷第1351页。(解释任何对所要求保护的发明的构思做出贡献的人都是共同发明人,必须被列出。要成为共同发明人,该人必须对发明做出重大贡献,在整个发明的背景下,质量微不足道的贡献并不授予发明权。但是,即使对发明的一个要素做出重大贡献也可能就足够了。在共同发明人的背景中,即使没有单个发明人构思了整个发明,也可以为共同发明人的集体构思集体授予专利。)105美国专利商标局指南,补充97。106同上。107同上。108同上。109同上。两党众议院人工智能工作组cxxvi该指南

    287、还不清楚什么样的人工智能使用以及哪些人工智能系统触发了这些要求。它没有说明该机构将如何适应所需的额外资源和给审查员带来的负担。这些悬而未决的问题使得人们不清楚,为人工智能辅助发明申请专利的指导方针将如何影响这些发明的专利保护的有效性和可预测性,投资者将如何评估人工智能行业和其他使用人工智能协助创新的行业对初创企业和研发的潜在投资,以及对创新的总体影响。最后,美国专利商标局如何调整以处理人工智能辅助发明的申请还有待观察,特别是如果人工智能技术的可用性产生了大量新的专利申请(在新指南下评估这些申请可能更具挑战性)。目前还不清楚法院是否会以与美国专利商标局指南相同的方式在人工智能的背景下解释发明权法

    288、,以及法院将如何总体上解决这些问题。正如该指南本身所表明的那样,它不具有法律效力,只是构成美国专利商标局政策的声明,只会直接影响美国专利商标署的行动。110因此,法院可能会在没有立法的情况下适用不同的规则。主题的合格性、新颖性和非显而易见性第35篇第101节规定,“任何人发明或发现任何新的有用工艺、机器、制造或物质成分,或其任何新的和有用的改进,都可以根据本篇的条件和要求获得专利。”111这被称为主题资格要求。近年来,由于第101条判例的变化,包括人工智能方面的变化,什么才是法定主题的问题受到了广泛关注。第101条被解释为限制了发明人获得针对某些类别发明的专利的能力,包括抽象概念、自然规律和自

    289、然现象。112正如最高法院在爱丽丝公司诉CLS国际银行案中所解释的那样,“在适用第101条的例外情况时,我们必须区分那些声称拥有人类创造力基石的专利和那些将这些基石整合到更多东西中的专利。”113110Id。111前4条。112见Bilski诉Kappos案,美国最高法院判例汇编第561卷第593页(2010年);梅奥合作服务。v.普罗米修斯实验室。,美国最高法院判例汇编第566卷第66页(2012年);分子病理学协会诉迈里德遗传学案,美国最高法院判例汇编第569卷第576页(2013年);爱丽丝公司。v.CLS国际银行,联邦最高法院判例汇编第134卷第2347页(2014年);另见:Emil

    290、y Blevins和Kevin Hickey,国会研究服务部IF12563,专利合格主题改革:概述,2024年1月3日,https:/crsreports.congress.gov/product/pdf/IF/IF12563/1.(近年来,涉及不合格主题的案件包括使用计算机或通信网络对冲价格风险或减轻金融交易结算风险的商业方法;校准特定药物剂量的方法;以及分离的人类DNA片段)。113Alice Corp.诉CLS Bank International,134 S.Ct.2347,2354(2014)(内部引号省略)。一些利益相关者表示担心,这一决定导致的主题不合格可能是为人工智能相关发明申

    291、请专利的一个问题,因为“它们可能被描述为组织人类活动、心理过程或数学概念的方法。”114两党众议院人工智能工作组cxxvii人工智能还提出了与新颖性115和非显而易见性116专利性要求有关的问题。两者都要求所要求的发明是对“现有技术”的进步,即现有技术和知识。例如,如果一项被要求保护的发明之前已经“获得专利、在印刷出版物中描述或公开使用、出售或以其他方式向公众提供”,则该发明不能获得专利保护,例如,如果其他人已经获得专利,或者已经向公众提供,则不能获得专利,因为这实际上不是一项新发明。117同样,它不能仅仅代表对现有技术的明显进步,因为如果该领域的大多数人(“本领域普通技术人员”)认为它是显而

    292、易见的,那么它就不是一项发明。118人们担心,人工智能可能会将大多数人类发明家和发明的非显而易见性标准提高到无法实现的水平。由于人工智能系统可以吸收和组合几乎无限数量的现有技术参考文献,因此有人认为,从理论上讲,只有一项罕见的发明才能超过人工智能的知识和性能。119例如,一位评论员指出,“将现有技术的范围扩展到几乎无限的集合,大大提高了非显而易见性,从而提高了专利性。”120如果本领域普通技术人员通常会使用人工智能,那么显而易见性的问题就变成了人工智能是否会达到相同结果的问题。121随着人工智能系统变得越来越强大,将越来越难以找到甚至超出普通人工智能能力的发明,即“非显而易见”,从而,可申请专

    293、利。人工智能输入和输出的透明度人工智能输入和输出的透明度知识产权与人工智能系统的透明度及其使用有三种主要方式相交。第一个是关于摄入哪些受版权保护的作品并用于训练特定AI模型的透明度。第二个是关于特定输出是否可以与现有知识产权相关联的透明度,例如用于训练模型的受知识产权保护的作品。第三是人工智能在产出中的参与和作用的透明度,特别是那些本身可能受到知识产权保护的产出。114前112。115前12条。116前6条。117前12条。118前6条。119Riddhi Setty,随着创意变得“显而易见”,新专利的人工智能使用风险下降,彭博法律,2023年7月12日,https:/ Heon,评论,人工显

    294、而易见但真正新颖:人工智能如何改变专利显而易见性分析,53 Seton HallL.Rev.359378,2022,121同上。两党众议院人工智能工作组cxxviii一些评论员呼吁提高训练数据的透明度,以训练人工智能模型并生成特定的输出。例如,一些人提议要求开发人员在公共存储库中(如USCO)提供用于训练其人工智能模型的所有摄入内容,或者至少提供其训练数据的摘要或其他报告。122例如,这可能会让创作者看到他们的版权内容是否包含在人工智能模型的训练语料库中,以识别侵权行为。其他人则主张披露导致人工智能系统特定输出的数据和输入来源。123除了可能允许创作者查看他们的版权作品是否参与了生成特定输出外

    295、,它还可以允许人工智能系统的用户评估和理解输出。124包括人工智能技术公司在内的其他公司则相反地认为,他们不应该受到版权材料使用的监管。其中包括断言,与投入和培训数据来源相关的此类透明度提案可能是一项昂贵而重大的技术或后勤挑战,特别是对于可能需要记录数百万(如果不是数十亿)可能受知识产权保护的作品的人工智能开发人员来说。此外,他们认为,即使仅限于具有知识产权保护的作品,也很难遵守披露要求,因为确定特定作品是否可以受到保护往往并不简单,而且大规模进行可能极具挑战性。其中一些评论员还担心强制披露是否会强行泄露人工智能开发人员的商业机密和专有信息。与通过从互联网抓取数据来吸收大量在线数据的大型语言模

    296、型(LLM)相比,利基或专业人工智能模型是使用精心策划的数据集开发的。可以为生物医学或药物研究、医学诊断和其他高度专业化的任务构建专用人工智能模型,几乎没有出错的空间。125122人工智能应用的核心原则,人类艺术运动,https:/ 2024年5月2日,124同上。125参见Neil Savage,挖掘人工智能的药物发现潜力,自然,2021年5月27日,https:/ Kumar,定制人工智能模型的兴起:定制人工智能以满足特定企业需求,Medium,2024年7月16日,https:/ Willemink等人,为机器学习准备医学成像数据,北美放射学会,2020年2月18日,https:/pub

    297、s.rsna.org/doi/full/10.1148/radiol.2020192224.两党众议院人工智能工作组cxxix利基或专业人工智能模型可以根据公司内部数据进行培训,例如通过多年研究收集的专有化学和生物信息,或精心选择的权威信息来源,以减少错误。126这种专业人工智能模式为用于培训的数据集赋予了巨大的价值和费用,并在数据管理、清理和准备方面进行了大量投资。127该行业的一些评论员认为,如果披露要求意味着竞争对手可以在不需要投资或努力的情况下获得专业培训数据,那么要求披露培训数据可能会阻碍识别、组装、清理、管理和以其他方式开发专业培训数据的投资和努力。行业组织、白宫和立法者也主张在人

    298、工智能生成或修改特定的视觉或音频输出时提高透明度,128这可能会对知识产权产生影响。已经讨论了一些技术选择,包括在元数据中附加出处信息,并强制在这些输出上添加可见或不可见的水印。129人工智能开发人员对以抵制删除的方式应用此类水印的技术可行性存在分歧130,并表示担心强制性水印会违反第一修正案。131其中许多担忧并非知识产权特有,本报告其他部分将对此进行更详细的讨论。人工智能生成的数字复制品滥用基于身份的权利人工智能生成的数字复制品滥用基于身份的权利也许人工智能技术提出的最引人注目的知识产权问题涉及保护那些发现自己的图像、肖像或声音被他人通过人工智能生成的数字复制品(如“deepfakes”)

    299、篡夺或滥用的个人126Supra 125.,(“Recursion Pharmaceuticals等其他公司最近在首次公开募股中筹集了4.36亿美元,正在生成大量关于细胞行为的定制数据,希望这些数据可以使用人工智能进行挖掘,以揭示可以为创新药物的发现提供信息的生物学见解。”)。127同上。;另见:知识产权和与中国的战略竞争:第3部分知识产权盗窃、网络安全和人工智能:小组委员会听证会。法院、知识分子和H.Comm.司法互联网,第118届会议,2023年,https:/judiciary.house.gov/sites/evo-subsites/republicans-judiciary.hous

    300、e.gov/files/evo-media-document/brennan-testimony_0.pdf(“模 型 的性 能 取 决 于 它 所 训 练 的 数 据。Sc a l e 几 乎 在 每 一 次生成式人工智能进步和LLM发布中都发挥了作用。我们还率先在数据微调、红队以及测试和评估方面采用了许多行业最佳实践。”)。128人工智能输出披露:使用、来源、不良事件,国家电信和信息管理局,2024年3月27日,https:/www.ntia.gov/issues/artificial-intelligence/ai-accountability-policy-report/develop

    301、ing-accountability-inputs-a-deeper-dive/information-flow/ai-output-disclosures另见:“S.2765-第118届国会(2023-2024):人工智能生成内容法案咨询。”Congress.gov,国会图书馆,2023年9月12日,https:/www.congress.gov/bill/118th-congress/senate-bill/2765.另见:Chad Heitzenrat,支持和反对人工智能水印的案例,兰德公司,2024年1月17日,https:/www.rand.org/pubs/commentary/2

    302、024/01/the-case-for-and-against-ai-watermarking.html.129Siddarth Srinivasan,检测人工智能指纹:水印及其他指南,布鲁金斯学会,2024年1月4日,同上,130页。131火、人工智能、言论自由和第一修正案,个人权利和言论基金会,https:/www.thefire.org/research-learn/artificial-intelligence-free-speech-and-first-amendment.两党众议院人工智能工作组cxxx生成式人工智能已被用于促进生成深度伪造,深度伪造最初是“图像或视频中的一个人与另

    303、一个人的肖像交换的合成媒体”,但现在已扩展到完全由人工智能系统生成的人的图像、视频和音频。132如“内容内容真实性”一章所述,深度伪造视频对信任视频和音频记录中包含的信息以及更广泛地传播准确信息的能力构成了严重风险。133在创意领域,知名艺术家的deepfake音轨已经发布,在成功删除之前获得了数百万条流媒体。2023年初,一首名为Heart on My Sleeve的歌曲的音轨被上传到多个流媒体服务,这似乎是唱片艺术家德雷克和威肯之间的新合作(尽管在某些平台上,它的标题或曲目描述中没有包括德雷克或威肯,或者被明确标记为“人工智能歌曲”)。134尽管许多人认为这首歌是艺术家合法发行的,但它实际

    304、上是一首人工智能生成的deepfake,在最终被删除之前驱动了数百万条流媒体。135鉴于许多唱片艺术家的收入来自他们的声音,以这种方式复制声音对艺术家的伤害是显而易见的,特别是如果复制的声音被用于可能损害艺术家声誉、冒犯粉丝或造成合同义务混淆的内容。此外,考虑到录音艺术家的主要“产品”是艺术家的音乐,人工智能生成的deepfake歌曲的制作本质上迫使艺术家与自己的数字复制品竞争,这可能会从艺术家那里转移资金,让消费者感到困惑。Deepfakes也被用来制作假冒产品代言。人工智能生成的埃隆马斯克、汤姆克鲁斯和莱昂纳多迪卡普里奥的形象在未经他们批准或认可的情况下被用于营销活动。1362023年10

    305、月,演员汤姆汉克斯发表了一份声明,解释说:“有一段视频用人工智能版本的我来推广一些牙科计划。我与此无关。”137132Meredith Somers,Deepfakes,解释道,麻省理工学院,2020年7月21日,https:/mitsloan.mit.edu/ideas-made-to-matter/deepfakes-explained.133唐法利斯,Deepfakes的认识论威胁,菲洛斯特诺勒。2021;34(4):623-643,2020年8月6日,134Joe Coscarelli,假“Drake”和“The Weeknd”的人工智能热播,纽约时报,2023年4月24日,135Id

    306、。136帕特里克咖啡,名人的“深度造假”开始出现在广告中,无论是否得到他们的许可,华尔街日报,2022年10月25日,https:/ Hao,Deepfake色情正在毁掉女性的生活。现在,法律可能最终会禁止它,麻省理工学院,2021年2月12日,https:/ Tenbarge和Liz Kreutz,贝弗利山一所中学正在调查学生分享人工智能拍摄的同学裸照,NBC新闻,2024年2月27日,https:/ T.Zirpoli,“美国商标法导论”,国会研究服务部,IF124562023年7月24日,联邦版权法保护表达性作品,但并不广泛涵盖声音或肖像等个人属性。143换句话说,版权将保护一个人声音的

    307、特定录音,但任何版权都不会阻止某人以数字方式复制该人的声音,以创建不是现有录音的复制品或衍生品的新录音。针对滥用个人姓名、形象、肖像和声音的州法律分为三大类:隐私权;公开权,包括姓名权、肖像权和肖像权的变更;以及反报复色情法。两党众议院人工智能工作组cxxxii大多数州都颁布了某种形式的立法来解决这些问题。144然而,州法律的有效性受到管辖权限制和法规之间不一致的限制,这给寻求纠正滥用个人属性的个人带来了挑战。田纳西州和得克萨斯州等州已经为姓名、形象和肖像制定了成文法和普通法保护,而纽约州等其他州则完全依赖成文法规定,每个州的法律都不同,都有自己的细微差别和限制。145州和联邦对基于身份的权利

    308、(如姓名、图像和肖像权)的保护存在这些差距和模糊之处,这导致人们呼吁联邦立法来解决数字复制问题。USCO在最近一份关于数字复制品的报告中得出结论,“迫切需要新的联邦立法”来解决生成人工智能技术支持的数字复制品生产和传播的速度和规模。146在得出这一结论时,USCO发现州法律不一致,不足以解决人工智能暴露的问题。147该办公室还发现现有的联邦法律不足。根据USCO的说法,版权法保护原创作品,但不防止未经授权复制图像或肖像。148关于兰哈姆法的虚假背书条款,USCO指出,许多联邦法院要求一般知名度或名人才能获得其保护,并且“许多个人,包括不太知名的艺术家和表演者,可能很难证明被质疑的行为可能会混淆

    309、消费者对原告与被告商业活动的关联或批准。”149143前12条;Karl M.Zielaznicki等人,生成性人工智能与版权法的交叉,Troutman Pepper,2023年7月21日,https:/ EWING,另见:Jennifer E.Rothman,Rothman的宣传权路线图,145Id。146前81页。147Id。148Id。149Id。两党众议院人工智能工作组cxxxiii根据USCO的规定,联邦立法应解决数字复制品的定义、受保护的人、保护期限、禁止的行为、次要责任、许可和转让、第一修正案问题的解决、补救措施以及与州法律的互动。150USCO的报告还得出结论,联邦立法不应“过

    310、于宽泛”,而应针对“令人信服地似乎是被复制的实际个人”的复制品。151该报告进一步建议,联邦对基于身份的权利的保护不应远远超出个人的生命期,这些权利应该是可许可的,但不能永久转让,第一修正案的保护应得到强有力的保护,州法律不应被完全取代。152法律清晰度法律清晰度应明确关于作者/发明权以及人工智能辅助的创造性作品和发明获得知识产权保护的能力的适用法律、法规和机构指导,以促进用于内容创作和创新的强大的新人工智能工具的开发和应用,同时保护人类创作者和创新者。如上所述,USCO和USPTO已经发布了关于获得人工智能辅助创意作品和发明的版权注册和专利的作者和发明人要求的新指南。153这些指南是初步的,

    311、这两个机构都在与利益相关者进行广泛协商,以在最终确定其政策之前收集信息。154由于这两个部门都对其指南的实施和效果留下了一些未解决的问题,因此进一步明确将是有益的。USCO指南强调了区分人工智能和人类对混合作品的贡献的困难,USCO将如何处理这个问题,以及创作者将被要求提交的信息和证据等。USCO指导方针的其他一些潜在影响也需要进一步考虑。例如,当那些创作者对作品行使完全的创作控制和指导时,拒绝为使用人工智能克服残疾的创作者提供版权保护的理由似乎充其量是模糊的。也不清楚允许对这种人工智能辅助创作进行版权保护会对谁(如果有的话)造成伤害,也不清楚为什么所有人工智能工具都必须与其他创作工具区别对待

    312、。150Id。151同上。152同上。153前64条。;上篇97154前66条。;前67条。两党众议院人工智能工作组cxxxiv美国专利商标局关于发明人的指导同样需要澄清。例如,该指南得出的结论是,专利申请可能会列出所有人类发明人(即对发明的至少一个要素做出重大贡献的人),并省略任何被认为来自人工智能系统的贡献。155然而,它也禁止对那些唯一被认为足够重要的贡献归因于独立于任何人类的人工智能系统。156目前尚不清楚法院是否会同意美国专利商标局的意见,并同样将人工智能系统视为独立贡献者,还是将其视为人类发明者的工具。还有一个问题是,法院是否会偏离美国专利商标局,并得出结论,如果发明的一个方面完全

    313、是独立于任何人类的人工智能系统的贡献,即使所列的(人类)发明人对所有其他方面负责,已颁发的专利也是无效的。此外,该指南首次要求在人工智能辅助发明的情况下提交证据来评估发明人,从而为专利申请人创造了一个新的程序障碍。157这似乎表明,可以根据人工智能系统认为做出的贡献来评估人类发明者的贡献。目前尚不清楚这种分析对人工智能辅助的发明获得专利的可行性有何影响,以及如果独立考虑人工智能系统的“贡献”,证明发明是否会更加困难。目前还不清楚需要什么证据,专利审查员将适用什么标准,以及这些新的发明者调查是否会对申请人和美国专利商标局的负担产生重大影响。与USCO的指导方针类似,美国专利商标局的指导方针并没有

    314、消除专利发明人问题的所有不确定性。与其他司法管辖区的专利法相比,缺乏明确性可能会使美国法律对一些申请人不利。尽管该指南似乎关注的是仅仅通过按下人工智能系统上的按钮即可大规模生产发明的幽灵,但到目前为止,几乎没有迹象表明这种现象即将发生。一般来说,发明需要人类进行测试、评估和改进,以满足专利性要求,甚至需要进一步开发才能纳入产品和服务。在目前的可专利性要求被证明不足的情况下,政策制定者应该专注于量身定制的措施,这些措施不会广泛阻碍人工智能技术的应用,而是保持平衡,保持人工智能技术及其使用的创新动力。对于发明者来说,重点应该放在人类发明者及其知识、理解和创造性贡献的充分性上,而不是他们使用的工具(

    315、无论是人工智能还是非人工智能)。155前97页。156同上。157同上。两党众议院人工智能工作组cxxxv预期监管预期监管尽管人工智能技术及其应用的最新发展提出了一系列与知识产权相关的问题,但其中一些问题还不适合政府干预。避免过度扩张并尽可能多地了解潜在的成本和收益至关重要。任何新的知识产权相关立法或法规都应针对特定的已知问题或难题;狭义地定制定义、要求和后果;减少不确定性,而不是增加不确定性;并注重提高私营部门的创新能力和创作者的蓬勃发展。两党众议院人工智能工作组cxxxvi主要发现主要发现目前尚不清楚在某些情况下是否有必要采取立法行动,一些知识产权问题目前正在法院目前尚不清楚在某些情况下是

    316、否有必要采取立法行动,一些知识产权问题目前正在法院审理。审理。由于人工智能对知识产权影响的快速变化和巨大的不确定性,国会在考虑与人工智能和知识产权相关的立法时应谨慎行事。生成型人工智能对创意社区提出了独特的挑战。生成型人工智能对创意社区提出了独特的挑战。生成式人工智能的快速发展给内容创作者带来了许多与知识产权相关的问题。虽然人工智能的持续进步是值得欢迎的,但这些进步绝不能扼杀人类创造力的持续繁荣。创作者通常很难知道他们的版权作品是否被人工智能开发人员使用。创作者通常很难知道他们的版权作品是否被人工智能开发人员使用。虽然生成式人工智能背景下的合理使用问题仍然是正在进行的诉讼的主题,但内容创作者往

    317、往不知道他们的版权作品是否被用于模型的训练。全球知识产权政策格局为开发者和创作者带来了挑战和机遇。全球知识产权政策格局为开发者和创作者带来了挑战和机遇。显著增加人工智能开发人员运营成本的立法或监管环境可能会导致公司将业务转移到更宽松的环境中。例如,中华人民共和国已经在考虑采取措施,通过更友好的版权法鼓励搬迁到中国。然而,在生成式人工智能的进步中,未能确保创作者知识产权得到保护的立法环境可能会损害美国的创意社区。此外,欧盟等开始对人工智能开发人员提出透明度要求的司法管辖区可能会鼓励创作者在美国以外寻找机会,而对创作者实施强有力的知识产权保护的其他司法管辖区也可能如此。虽然一些用例是合法和受保护的

    318、表达形式,但有害的虽然一些用例是合法和受保护的表达形式,但有害的deepfakedeepfake和数字复制品的激增是一和数字复制品的激增是一个重大的问题个重大的问题持续的挑战。持续的挑战。在某些情况下,数字复制品可用于受第一修正案保护的言论环境和其他合法目的。然而,某些类型的深度伪造和个人肖像、声音和其他识别特征的数字复制品是当今已经使用的人工智能技术的有害应用。建议建议建议:澄清知识产权法律、法规和代理活动。建议:澄清知识产权法律、法规和代理活动。应明确关于人工智能著作权/发明权以及人工智能辅助的创造性作品和发明获得知识产权两党众议院人工智能工作组cxxxvii保护的能力的适用法律、法规和机

    319、构指导。理想情况下,这种清晰度应该促进强大的新人工智能工具的开发和应用,用于内容创作和创新,同时仍然保护人类创作者和创新者。建议:适当应对人工智能创造的建议:适当应对人工智能创造的deepfakesdeepfakes日益增长的危害。日益增长的危害。Deepfake和有害数字复制品的泛滥是一个真实而现实的问题。尽管数字复制品和deepfakes已经存在多年,但人工智能技术通过使几乎任何人都可以轻松获得高质量、逼真的复制品,大大扩大了问题的规模。国会可以通过多种方式解决这个问题。一种方法是授权个人保护其基于身份的权利,并在全国范围内建立保护措施,同时避免侵犯受第一修正案保护的言论。两党众议院人工智

    320、能工作组cxxxviii背景背景生成式人工智能系统包括可以生成文本、图像、视频和音频/语音内容的人工智能。1这些系统是在大量现有的书面、视觉或音频数据上训练的。这些系统识别训练数据中的统计模式,然后创建与这些模式相匹配的新内容。随着生成式人工智能系统继续接受更多数据和更强大计算资源的训练,它们可以产生质量和真实性越来越高的输出。当视频、图像或音频被认为反映了事件的忠实记录时,即使它是由人工智能生成或实质性操纵的,它也通常被称为“深度伪造”。深度伪造代表了合成内容的一个子集,或使用任何音频、视频、图像创建或编辑工具完全或部分更改或创建的内容。生成性人工智能技术可以以多种方式有效地用于激发创造力、

    321、生产力和创业精神。合成内容在营销、销售、娱乐和产品开发方面有着广泛的应用。然而,合成内容也可能是恶意的、有害的或误导性的,并与欺诈和同意问题有关。合成成分的风险和危害合成成分的风险和危害金融诈骗等合成内容造成的风险和危害存在于互联网等开放信息生态系统中。然而,能够生成逼真的合成文本、图像、视频和音频的人工智能系统会带来更大的风险。史赛克、科尔和马克斯卡皮基奥。“什么是生成Ai?”IBM,2024年3月22日,www.IBM.com/topics/Generative-Ai。一些能够生成内容的技术包括基于变压器的模型、生成对抗网络和某些类型的自动编码器。Bengesi、Staphord等人。“生

    322、成式人工智能的进步:对gans、GPT、自动编码器、扩散模型和变压器的全面综述。”IEEE Access,2024年第12卷,第69812-69837页,两党众议院人工智能工作组cxxxviii生成式人工智能可以比以前的技术更快、更低的成本生产有害的合成内容。最流行的当代图像生成工具有一些防止滥用的护栏,例如防止创建描绘公众人物的内容的功能。2然而,外行人很容易删除这些护栏或获取缺乏足够护栏的生成人工智能工具。生成式人工智能系统能力的提高使得检测合成内容变得更加困难。因此,虽然随意的观察者可以很容易地识别出用以前的技术创建的虚假图像,但生成式人工智能可以产生甚至挑战最挑剔的观众的内容。合成内容

    323、的危害可能对个人、组织、社区或目标人群产生集中或广泛的影响。3例如,合成内容可用于诽谤个人或实施欺诈。相比之下,用于在社交媒体平台上传播误导性或不准确信息的合成内容可以广泛传播到目标人群。与传统内容一样,根据第一修正案,合成内容作为言论自由受到广泛保护。这一基本宪法原则强调了在美国培养沟通和创造力的重要性。即使内容是或可能是合成的或伪造的,仅凭这一点并不能证明禁止其创建或分发的企图是正当的。美国人的言论自由受到第一修正案的保护,即使这种表达是通过合成内容传达的。然而,某些类型的内容已被排除在这些保护之外。例如,制作涉及真实儿童的虐待材料是非法的。4尽管没有联邦法律限制使用人工智能工具生成非自愿

    324、的亲密图像,但一些州已经考虑制定法律来限制这种做法。52使用政策。”OpenAI,2024年1月10日,https:/ U.S.C.2256-章节定义。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2011-title18/USCODE-2011-title18-partI-chap110-sec2256;另见:众议院、国会。18 U.S.C.2252A-与构成或包含儿童色情内容的材料有关的某些活动。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title18/USCO

    325、DE-2023-title18-partI-chap110-sec2252A;另见:众议院、国会。18美国法典第1466A条-儿童性虐待的淫秽视觉表现。美国政府出版办公室,https:/www.govinfo.gov/app/details/USCODE-2023-title18/USCODE-2023-title18-partI-chap71-sec1466A5名合伙人,跨国公司。“大多数州都颁布了性假法律。”多州。艾,2024年6月28日,https:/www.multistate.ai/updates/vol-32.两党众议院人工智能工作组cxxxix其他法律侧重于限制非自愿传播他人的亲

    326、密图像,无论使用何种技术制作这些图像。6受第一修正案保护的合成内容仍然可能产生实际或可感知的负面影响。例如,它可以使基于性别的暴力和暴力侵害儿童等活动正常化。合成内容也会阻碍政治参与,或恐吓和压制目标。就儿童性虐待材料(CSAM)而言,虚假图像的激增可能会阻碍执法部门识别和帮助受害者的努力。7当政府试图解决这些危害时,应该小心维护宪法保护。下文将进一步讨论识别和解决合成内容后果的技术解决方案。非一致的亲密图像当代人工智能系统生成的合成内容最普遍的危害之一是创建和分发非自愿亲密图像(NCII),特别是在伴随着威胁的情况下。当代人工智能系统可以以多种形式复制个人的肖像,包括语音克隆、文本到语音合成

    327、、面部交换、面部变形、全身木偶和唇形同步。8虽然这些技术的许多用途相对温和,但当一个人的亲密图像未经其同意在网上广泛分享时,它们也可能被用来造成严重的声誉、情感和其他毁灭性的伤害。2023年的一项研究发现,98%的在线深度伪造视频是色情的,其中99%是女性。9三分之一的深度伪造工具允许用户创建非自愿的色情内容。10从一张清晰的脸图像开始,免费创建这样的图像或视频大约需要30分钟。11虽然名人最常见的是深度伪造的主题,但越来越多的青少年使用这些深度伪造的“裸体”应用程序创建同学或老师的NCII,以进行欺凌和骚扰。126德文多夫,约翰。复仇色情法概述,LawInfo,2023年5月29日,http

    328、s:/ Nudes到有罪音频,学校欺凌正在走向艾。”The Hill,The Hill,2024年6月6日,https:/ DeStefano在参议院司法委员会面前作证:“这是我女儿的声音。这是她的哭声,她的抽泣。这是她说话的方式。我永远无法忘记这个声音。听到你的孩子在恐惧和痛苦中恳求,知道他们受到了伤害,你感到无助和绝望,这是每个父母最可怕的噩梦。”17两党众议院人工智能工作组cxlii大型语言模型(LLM)还使恶意行为者更容易为“钓鱼”、“钓鱼”和“鱼叉式钓鱼”攻击生成令人信服的内容。幸运的是,现有的防御措施,如垃圾邮件过滤器和检测方法,通常能够检测和删除这些攻击消息。18即使其内容更具说

    329、服力,人工智能支持的网络钓鱼和鱼叉式网络钓鱼攻击在人群层面可能并不更有效。19最后,人们担心使用AI生成的语音或AI生成的垃圾邮件内容的诈骗机器人电话。在许多情况下,根据“请勿呼叫”限制,Robocalls已经是非法的,目前大多数有线和无线电话用户都可以选择加入。美国联邦通信委员会还根据2019年帕隆图恩追踪法案(P.L.116-115)的规定,在蜂窝网络和电话系统层实施了STIR/SHAKEN技术缓解措施。20这是在媒体呈现模式下操作的技术层减少恶搞和诈骗电话的重要组成部分,在媒体呈现方式下,人工智能生成的内容将被引入。美国联邦通信委员会于2023年3月发布了STIR/SHAKEN技术推出情

    330、况的更新。此外,美国联邦通信委员会发布了一项规则制定,即人工智能在机器人电话中产生的声音是非法的。2117珍妮弗德斯特凡诺。“美国参议院关于Jennifer DeStefano滥用人工智能的书面声明。”美国参议院司法委员会,2023年6月13日,www.Judiciary.Senate.gov/imo/media/doc/2023-06-13下午-证词-DeStefano.pdf。18西蒙马洛。“用Haskell对抗垃圾邮件。”Meta工程,Meta,2015年6月26日,https:/ Narayanan。如何为社交媒体上的人工智能洪流做好准备。骑士第一修正案研究所,2023年6月16日,h

    331、ttps:/knightcolumbia.org/content/how-to-prepare-for-the-deluge-of-generative-ai-on-social-media.20美国联邦通信委员会。2021年9月23日,帕隆图恩电话机器人通话滥用刑事执法和威慑法案(TRACED法案)21美国联邦通信委员会。2024年2月8日,美国联邦通信委员会宣布在机器人通话中使用人工智能生成的声音为非法。https:/www.fcc.gov/document/fcc-makes-ai-generated-voices-robocalls-illegal.两党众议院人工智能工作组cxliii

    332、信息的完整性现代人工智能系统已被证明是生成虚假叙事的有效工具,这些虚假叙事以各种语言吸引并影响目标受众。这些工具可以自动传播虚假信息,无论是否有意误导。例子不胜枚举:有一段乌克兰总统泽连斯基似乎告诉他的士兵投降的合成视频,22并操纵了一段视频,声称芝加哥市长候选人宣扬警察暴行。23五角大楼爆炸的合成图像在网上广泛传播,在许多情况下是在不知不觉中传播的,这导致标准普尔500指数下跌了30点。最近,人工智能生成的在线新闻报道也大幅增加。一些民族国家已经开始使用合成内容来破坏人们对信息生态系统的信任。例如,2023年兰德公司的一份报告发现,中国共产党似乎对使用人工智能系统生成针对特定人群的虚假内容感

    333、兴趣。27此外,这些研究人员表明,使用生成合成文本的人工智能系统来改进“太空草运动”是可行的,这是一种协调的运动,通过欺骗性的做法让基层民众对某些问题给予支持。28一些利益相关者提出,广泛使用合成内容生成能力可能会损害互联网上信息的完整性,进一步削弱对媒体和关键机构的信任。22艾伦,鲍比。专家警告称,泽连斯基的Deepfake视频可能是信息战中的“冰山一角”。NPR,2022年3月16日,https:/www.npr.org/2022/03/16/1087062648/deepfake-video-zelenskyy-experts-war-manipulation-ukraine-russia.23Joe Concha,“人工智能给媒体、选举带来的迫在眉睫的噩梦”,国会山,2023年4月23日,https:/ Krietzberg,“标普因五角大楼假爆炸损失5000亿美元”,华尔街日报,