从“美国人工智能倡议”到“安全、可靠、值得信赖”——再回归:美国人工智能政策在三届政府间的演变
自2019年以来,美国联邦人工智能政策的轨迹呈现出从狭隘地强调国家领导力和研究,到广泛、风险管理和注重权利的监管态势,再到随着2025年特朗普总统的回归,重新发起了一场旨在加速创新、简化采购流程和减少监管摩擦的运动。这三个阶段的差异不仅体现在重点和手段上,也体现在连续性上:三个阶段都将美国的经济和国家安全领导力置于核心地位,但在联邦政府应在多大程度上监管、测试和预先批准人工智能系统,以及应在多大程度上促进私营部门的推广和快速应用方面存在分歧。下文将追溯这些重大变化及其带来的实际影响。
第一阶段——特朗普政府第一任期:国家竞争力与研发加速(2019)
2019年2月,特朗普政府启动了“美国人工智能计划”。该命令将人工智能主要定位为一项经济和国防要务:目标是通过加强联邦研发、扩大计算和数据获取渠道、鼓励公私合作以及培养人工智能相关岗位的劳动力,来维护美国的领导地位。各机构被指示在预算中优先考虑人工智能,尽可能共享数据,并扩大人工智能教育和工人培训计划。该方案刻意减少规范性监管,更注重激励、协调和消除人们认为的创新障碍。
实际上,这意味着联邦实验室、拨款和合作伙伴关系逐渐成为与其他国家竞争的工具;指导方针的重点是促进政府采用人工智能,而不是限制私人活动。特朗普政府的措辞原则上强调“美国价值观”和公民自由,但具体实施却侧重于技术能力、劳动力和行业支持,而非详细的安全测试或系统级风险评估。
第二阶段——拜登政府:安全、评估、民权和治理 (2021-2024)
随着人工智能系统能力的增强及其危害的日益显现(虚假信息、有偏见的算法、“前沿”模型的安全风险),拜登政府将联邦政府的立场从以赋能为主转变为平衡战略,将对创新的支持与具体的安全、民权和问责措施相结合。其标志性举措是2023年10月30日发布的《安全、可靠和值得信赖的人工智能开发与使用》行政命令。该行政令强调部署前测试、严格评估、部署后监控、模型来源和标签、隐私和公民权利保护,以及与国际合作伙伴就标准进行合作。它指示各机构制定标准、测试制度和治理机制,以管理系统性和部门性风险。
拜登的战略还依靠NIST等机构构建技术测量框架(TEVV——测试、评估、验证和确认),并依靠机构间协调来规范采购、消费者保护和研究资金,以推动负责任的人工智能发展。政府明确接受在某些高风险领域(医疗保健、关键基础设施、生物安全)以更缓慢、更规范的方式部署,以减少危害。独立分析师和国会认为,此举旨在加强联邦监管和标准制定,而非单纯的市场便利化。
第三阶段——特朗普第二任期(2025):加速、放松管制、采购
随着特朗普总统于2025年重返白宫,联邦人工智能战略再次发生转变。2025年7月,政府发布了“美国人工智能行动计划”——一项紧凑、以行动为导向的议程,强调加速创新、建设国内人工智能基础设施,并利用采购和监管精简机制,加快人工智能在商业和政府领域的应用。该计划将人工智能定位为经济机遇和生产力的引擎,并呼吁减少“监管摩擦”,更新采购规则以促进快速应用,激励私人部门对计算和数据基础设施的投资,并提升美国在国际人工智能市场的竞争力。
与拜登的行政令相比,特朗普的2025年计划更加重视速度、市场部署和工人再培训,并将其定位为“工人优先”议程——即强调人工智能如何提高生产力和创造新的就业机会,同时承诺制定政策帮助工人转型。它仍然承认安全和劳动力方面的担忧,但更倾向于自愿标准、加快政府采用的途径以及减少部署前的强制要求。法律和政策工具倾向于行政命令、采购改革和撤销先前的监管限制。分析人士指出,这种方法旨在迅速释放私营部门的活力,但也引发了人们对安全关键测试和民权保护是否会像拜登政府那样严格执行的质疑。
实践中的变化——三个比较要点
1. 从赋能到治理,再回到赋能加采购。特朗普政府执政初期,推动了研发和应用;拜登政府采取了治理优先的姿态,强调安全测试、标签和民权保护;特朗普政府执政后期,试图再次推动快速应用,但方式是积极采购和放松管制,而不仅仅是研发拨款。
2. 对联邦政府在风险缓解中的作用持不同观点。拜登正式确立了政府在部署前评估和上市后监控(标签、标准)方面的责任。特朗普的2025计划承认人工智能存在风险,但更倾向于采用市场友好型工具(采购激励、自愿标准、更快的监管审批),而非强制性的政府主导的测试机制。NIST和类似机构在两个时期都发挥着重要作用,但它们的重点和资源配置随着每一届政府的调整而变化。
3. 连续性——领导力、劳动力和国际态势。三届政府都将政策锚定在国家竞争力、劳动力发展和国际参与上。他们的分歧在于创新、安全和联邦干预之间的平衡。即使特朗普的2025计划更倾向于速度,它也仍然将人工智能政策定义为一项国家项目,通过基础设施和劳动力项目来推进。
风险与权衡
快速部署和严格治理之间的摇摆反映了真正的权衡。加快采购速度和放松监管可以加速行业和政府运营的效益——但如果缺乏强有力的技术激励验证 (TEVV) 和权利保护,就更容易受到诸如决策偏差、关键领域安全漏洞以及滥用等危害。相反,更具规范性的安全制度可能会减缓创新并增加合规成本,尤其对初创企业而言。联邦政府当前的政策选择至关重要,因为它们塑造了行业规范、国际标准以及全球竞争的规则。
展望:趋同还是持续分化?
政策周期经常波动,但谨慎趋同是有理由的。技术标准工作(模型文档、出处和标签)可以同时服务于安全和应用目标——提供可预测的途径,既保护公众,又减少开发者的不确定性。国际合作、劳动力项目和公私合作测试平台是经久耐用的工具,很可能经受住党派之争的考验。与此同时,监管偏好的差异——强制性安全测试与自愿性方法、严格标识与低透明度要求——将继续区分不同政府,并决定人工智能融入公共生活的速度和安全性。
结论
从美国人工智能计划的研发和领导力重点(2019年),到拜登政府强大的安全和治理架构(2023年),再到特朗普政府强调速度、采购和放松管制的2025年行动计划,美国人工智能政策已适应不断变化的技术和政治优先事项。每个阶段都体现了相互竞争但又合情合理的国家目标:技术领先、经济机遇、国家安全以及保护公民权利和公共安全。未来的艰巨任务是设计能够协调这些目标的政策工具——使美国在人工智能领域的领先地位不仅体现在速度或规模上,还体现在构建强大且值得信赖的系统上。
关察源

政策到实现,很长的路。