2025年9月29日,加州州长正式签署了参议院法案SB 53,即"前沿人工智能透明法"(Transparency in Frontier Artificial Intelligence Act,简称TFAIA)。这一举措被视为加州在人工智能治理领域的又一次前瞻性动作,旨在以制度化的方式提高前沿模型的透明度、强化安全监管、保护告密者并推动公共研究基础设施建设。该法由参议员Scott Wiener提出,并在州长及专家工作组的推动下成文,通过后将在加州乃至全美AI政策讨论中产生深远影响。法案通过的背景与动因值得关注。加州长期是全球科技创新的高地,拥有大量顶尖AI公司、研究机构与人才。根据近年统计,加州占据了美国人工智能职位需求的最高份额,并且吸引了大批风险投资。
与此同时,越来越强大的前沿人工智能模型在生成能力、决策支持及自动化水平上不断突破,也带来了潜在的系统性风险、公共安全隐忧与伦理争议。联邦层面尚未形成全面、具体且可操作的AI监管机制,使得州层面干预成为现实选项。基于对专家组报告的采纳与行业现实的判断,加州选择将透明度、问责与公共参与作为核心治理路径。SB 53在文本上涵盖多个关键维度。首先,透明度要求针对大型前沿模型开发者,公开其在网站上描述企业如何将国家标准、国际标准及行业共识最佳实践融入其前沿AI框架的说明。该项规定并非要求公开模型参数或源码本身,而是侧重制度性、流程性透明,例如风险评估方法、模型测试与验证流程、外部审计安排与治理机制的公开披露。
此举旨在在保护技术与安全敏感性的同时,提升公众与监管方对企业合规性与治理能力的可见性,推动"可验证的信任"。其次,创新维度引入了名为CalCompute的公共计算集群规划。法案在政府运营署下设立联盟,负责设计一个促进安全、伦理、可持续AI研究与部署的公共算力平台框架。CalCompute的设想是在公共与私营部门之间搭建协作池,降低独立实验室或高校获取高性能计算资源的门槛,从而支持更广泛的研究与审查工作,也便于监管机构在必要时进行安全性测试与复现研究。该平台同时被期待在能源效率、疫苗研发、气候模拟等公共利益方向发挥作用,将公共算力作为一种战略性基础设施来培育。第三,安全机制方面,法案建立了向加州应急服务办公室报告潜在关键安全事件的通道。
所谓关键安全事件通常指可能对大量公众健康、安全或基础设施造成重大影响的AI失控、重大错误决策或被恶意利用的情形。通过设立专门通报机制,州政府希望能更快地识别、响应并协调跨部门处置潜在危机,也便于在事后进行透明披露与责任追究。第四,问责与保护并重。SB 53为举报在前沿模型研发或部署过程中揭示重大健康与安全风险的人员提供了保护措施,防止因吹哨行为遭受报复。同时,法案赋予州检察长对不遵守透明性与报告要求的开发者实施民事罚款的执法权力。这样的设计既为内部发现问题提供安全出口,也通过经济惩罚机制强化合规激励。
第五,法案体现了动态适应性的原则。加州科技部门被要求每年根据多方利益相关者的意见、技术发展与国际标准,向立法和行政机关建议法案的更新方向。AI技术迅速演进,制度也需具备迭代能力,年度评估机制为政策调整提供了制度保障。对企业与开发者的影响是多方面的。对于在加州注册或面向加州市场提供前沿AI服务的大型公司而言,必须评估内部治理体系能否满足公开说明与报告要求。企业可能需要建立或强化风险评估、模型验证、外部审计与合规报告流程,以避免被罚款或遭遇声誉风险。
对于创业公司与研究机构,CalCompute的出现则可能带来更多合作与资源获取机会,降低尝试性研究的成本,但也伴随更严格的监管期望。法案也在公众层面释放了重要信号。通过明确保护告密者与建立报告通道,立法者试图鼓励内部透明与外部监督,避免因担心报复或信息不对称而掩盖风险事件。与此同时,公开治理框架的要求有助于提升社会对AI系统安全性的认知,推动行业向"可审计、可问责"的方向发展。当然,SB 53并非无懈可击,实施过程中将面临若干挑战。如何在透明性与国家安全、商业机密之间取得平衡,是首要难题。
公开过多技术细节可能被恶意方利用,但过度保密又会削弱监督效力。法案采取了框架性与过程性公开的路径,但具体执行时需细化可供公开的内容范围与审查机制。其次,CalCompute的建设涉及经费、治理结构与使用规则设计。公共算力若由单一主体管理,可能引发利益冲突;若采用多方治理,则需解决运营效率与资源分配问题。再者,加州的执法资源与技术能力也将决定法案的实际震慑力。单靠法律条文无法完全约束快速演化的技术,监管机构需要相应的审查能力、技术人才与跨部门协作渠道。
在国家与国际语境下,SB 53具有示范意义。联邦层面迄今为止在AI全面监管上仍步调不一,若各州纷纷制定各异要求,将带来合规碎片化的风险。加州作为科技集聚地,其立法动向可能被其他州或联邦立法者借鉴,但也可能促使联邦层面加速统一标准的推动。国际上,欧盟的AI法案与其他国家在可控AI治理方面已有多种尝试,加州的新法为全球治理提供了一个注重透明性、公共算力与举报保护的组合方案,丰富了治理工具箱。对普通公众而言,SB 53或将带来更可见的政府监督机制和企业治理承诺。透明性披露让消费者、研究人员与政策制定者能更好地了解AI系统背后的治理逻辑;举报保护与报告通道则为潜在风险发出预警提供了渠道。
长期来看,若法律与执行能有效结合,公众对AI的信任可能得到提升,从而促进技术的健康采纳。从企业合规实践角度出发,建议在加州有业务的AI开发者提前评估现有治理体系,完善风险评估、测试与外部审计机制,明确内部报告与应急响应流程,并就公开披露的内容与法律顾问充分沟通,确保既满足透明义务又保护核心安全与商业秘密。研究机构与高校应关注CalCompute的后续实施细则,积极参与多方治理讨论,以争取公平的资源与审查机会。未来展望方面,SB 53标志着一种"信任但验证"的治理路径:通过要求制度性透明、建立公共研究能力与安全通报机制,在保障创新活力的同时提高监管可操作性。其真正成效将取决于实施细则、监管能力建设与多方合作的深度。随着技术进步与政策实践的积累,加州此举有望促使更成熟的监管范式出现,并为其他司法辖区提供可参考的经验。
然而,仅靠单一法律不足以解决所有风险,持续的技术评估、公众参与与国际协作仍然不可或缺。总体而言,加州签署SB 53体现了地方政府在人工智能治理领域的主动作为,试图在创新推动与风险管理之间建立新的平衡点。对于企业、研究者、监管者与公众而言,这既是挑战也是机会。如何把握新规带来的机遇、积极参与治理实践并推进透明且负责任的技术发展,将成为未来几年内各方需要共同回答的问题。 。