近年来,人工智能技术在全球范围内掀起了巨大的变革浪潮,美国联邦政府也将其视为提升公共服务效率和创新能力的关键领域。从政策制定到实际应用落地,AI在政府层面展现出极大的潜力。然而,围绕人工智能的监管问题也逐渐浮出水面,尤其是在美国,联邦层面关于AI的监管规则复杂且多样,涉及多个机构协同参与,使得政府各部门在推动AI应用时面临不小的挑战。美国政府希望人工智能能够渗透至各个政府部门,实现治理现代化,提高行政效率并改善公共服务体验。然而,正如经典的"铁腕与绵刀"比喻,人工智能的快速发展碰上了官僚体系的复杂规章制度,两个看似相冲的力量正在交织。根据政府问责局(Government Accountability Office,简称GAO)在2025年发布的报告,美国联邦政府涉及AI监管的要求达到了94条,这些规定分别来源于十个不同的监督与咨询机构。
监管体系涵盖了从财政预算管理办公室(OMB)、科学技术政策办公室(OSTP)、商务部、总务管理局(GSA)到国家科学基金会(NSF)等多个部门,这些机构各自制定部分AI相关的政策法规,形成了多头监管的局面。监管规则来源不仅多样,内容也非常繁杂,包括了五项与AI相关的法律六道行政命令以及三份指导文件,共同构建了联邦政府AI监管的框架。这样的架构本意是确保人工智能技术的安全、合规和有效利用,防止潜在的安全风险、数据泄露、算法偏见及滥用等问题。然而,现实中,这种分散且重叠的监管体系对于推动AI技术应用形成了极大的制约。联邦各机构在落实这些要求时,需要在庞杂的规章之间寻找平衡,既要符合所有规定又要快速响应技术应用需求,许多部门因此陷入繁文缛节,延缓了AI项目的开发与上线。GAO的调查显示,近乎所有接受访问的联邦部门都反映当前的AI政策存在两大矛盾。
一方面,已有政策没有完全覆盖实际操作中遇到的技术与伦理障碍,导致代理机构实施过程中存在盲区和风险。另一方面,某些政策又过于保守细致,给部门的AI应用带来了明显障碍,限制了创新速度和资源调配。这种尴尬境地让大批政府工作人员感到困惑且效率降低。部署生成式AI(GenAI)技术成为典型案例。许多机构因缺乏充足的计算资源、担忧算法偏见和数据异常,此外还需面对层层叠加的监管要求,导致新技术采纳缓慢。十家被访机构中,有其中八家表示,现有的联邦AI管理政策不但未能解决他们的难题,反而成为阻碍技术运用的绊脚石。
过去几年里,GAO多次强调优化联邦AI监管体系的必要性。早在2021年,GAO就发布了促进AI责任制和透明度的管理框架,指导各部门如何安全、有效地利用人工智能。但尽管政策建议层出不穷,落实进展始终缓慢。至2025年7月,19个联邦机构的35条改进建议中,只有少数被真正实施。GAO IT与网络安全部门负责人凯文·沃尔什(Kevin Walsh)指出,人工智能不仅拥有提升政府运营效率的巨大潜力,还带来了新的网络安全隐患和欺诈风险。联邦政府迫切需要建立合理的规则以确保AI为善用而非恶用,但当前碎片化的监管体系难以快速调整和响应这些挑战。
与此同时,特朗普政府时期启动的"一政府"(OneGov)采购战略为各机构引入领先的AI模型铺路,许多大型AI企业如谷歌、OpenAI和Anthropic参与其中,以极低的价格向政府部门提供服务,显示出联邦政府推进AI创新的强烈意愿。然而,技术采购和政策监管之间的脱节也令人关注。监管制度的重叠和复杂性使一些机构担忧,过于严格或含糊的规则可能遏制了这些技术在政府系统内的广泛应用。另一大痛点是缺乏统一的监管管理机构。当前没有一个集中的管理机制来统筹AI的规则制定和监督,导致各部门各用其法,规则条文互相重叠甚至冲突,应用环境难以统一,协同效率低下。AI的快速演进需要更灵活、科学的监管模式,不断优化规则以应对新的技术发展和风险,但现实中政府的应对往往滞后于技术本身。
很多专家建议,应推动联邦政府成立专门的AI监管协调机构,整合现有的政策资源,对AI技术的落地路径进行全局规划,有效实现创新与安全的平衡。只有减少制度性摩擦,促进跨部门合作,从而推动联邦政府在AI领域发挥引领作用。要认识到人工智能不仅仅是技术问题,更是治理、伦理和政策的综合挑战。当下联邦层面的多机构监管结构虽旨在强化AI安全和合规,但由于制度碎片化,已经成为限制技术快速落地的掣肘。制度设计者需要从顶层视角出发,简化流程、减少重叠规制,推动实现法规的标准化和统一规范,为政府部门的AI应用扫清障碍。总结而言,美国联邦政府想要在人工智能领域取得更大突破,亟需破解目前由逾十个联邦机构共同监管带来的"监管迷宫"。
协调一致的政策环境、灵活且明确的法规框架将是确保AI技术发挥最大效益的关键。随着监管改革的推进,未来的联邦AI生态或许能够更加高效、透明并具前瞻性,让AI真正成为推动公共服务创新的强大引擎。 。