近年来,人工智能技术的迅猛发展推动着全球数字经济和科技创新的深度变革。作为世界上最大的单一市场之一,欧盟积极应对新兴技术带来的机遇与挑战,通过立法手段规制人工智能的发展方向,确保技术的安全、公平与透明。欧盟AI法案(EU AI Act)作为全球首个系统性框架法规,旨在为人工智能提供法律保障,同时平衡创新发展和风险管控。2025年4月,欧盟委员会针对通用人工智能(General-Purpose AI,简称GPAI)模型发布了针对性公众咨询,邀请各界利益相关者提出意见建议,以便更好地明晰法规细节,完善监管体系。欧盟此举不仅反映了其作为“数字监管超级大国”的责任感,也体现出对技术复杂性和多元利益的深刻洞察。欧盟委员会发布的咨询文件明确了通用人工智能的核心议题。
首先,定义问题受到高度关注。通用人工智能是指能够广泛应用于多种任务和领域的人工智能模型,与专用AI相比,其用途更为广泛,复杂度更高。明确何为“通用”以及哪些人工智能模型纳入监管范畴,尤其重要,因为这直接影响法规的适用范围与执行效果。其次,法规对通用人工智能模型提供者提出了明确责任要求。包括需确保训练数据合法合规、模型透明度以及风险管理机制健全。此外,向下游提供AI系统的供应商同样肩负起维护系统安全和符合法规的职责,形成纵向责任链条。
公众咨询希望通过各方反馈,厘清这些责任边界,避免监管重叠和责任盲区。第三,市场准入和合规支持机制成为法规关注焦点。通用人工智能模型由于其高风险性质,被归为高风险AI系统范畴,必须满足严格的合规标准。欧盟计划制定详细的合规指南以及代码实践规范,以减轻企业合规负担,促进统一标准实施。基于公众咨询的反馈,这些指南预计将于2025年8月前正式发布。值得注意的是,欧盟还计划成立AI Act服务台(AI Act Service Desk),为企业和公众提供一站式法律咨询和技术支持,解答AI法案相关问题,帮助理解法规精神与实践细节。
这项服务为透明监管和技术推广营造了良好环境。公共咨询的开放,体现了欧盟立法的开放性和参与性。利益相关者涵盖GPAI提供商、使用者、学术界、民间社会组织与公共管理机构。通过多元声音汇聚,欧盟希望实现法规内容的科学准确、操作简便以及切实可行。同时,该行动也展现出欧盟对跨界合作和全球标准协调的重视。尽管欧盟积极推动监管框架完善,但现实中仍存在诸多挑战。
美国政府基于与欧盟代码实践草案的研判,曾提出多项批评意见,建议提高灵活性、加强商业机密保护以及进一步澄清监管范围,避免对美国大型AI开发商造成不公平负担。这反映了国际间在AI监管制定中的分歧与博弈,需要通过对话与合作共寻解法。技术标准制定的滞后也为法规实施增加难度。CEN-CENELEC联合法规机构原定2025年8月完成的标准草案推迟到2026年,迫使欧盟考虑临时性合规措施,以确保企业在标准尚未完备前依然能顺利开展业务。此外,如何在保护版权与知识产权的基础上合理利用训练数据,是法规结构中的另一难点。欧盟AI法案中涉及版权和文本数据挖掘(TDM)豁免的条款引发广泛讨论,尤其是关于训练数据是否超出TDM范围,版权义务如何兼顾AI创新,相关规定尚未完全明确,亟需细化。
面对快速变化且竞争激烈的全球AI态势,欧盟亦意识到简化监管程序的重要性。多国政府呼吁调整法规,降低对中小企业的合规压力,优化数字规则体系,增强欧盟在人工智能领域的竞争力。然而,削减监管要求亦需谨慎推进,避免削弱关键的隐私保护与安全保障。专家普遍认为,市场碎片化和资金生态不足才是真正制约欧洲创新的深层问题,简化政策若无法配套升级这些基础建设,将难以实现预期效益。总体而言,欧盟的公众咨询标志着欧盟AI法案从理论走向实践的关键节点。未来的法规很可能在透明度、责任制以及技术标准之间寻求平衡,既保护公民权利也支持企业发展。
AI Act服务台的建立和代码实践的推广,将成为合规支持的重要抓手。在版权等法律细节尚待澄清的情况下,欧盟倾向通过综合机制逐步完善规则体系,保持法规的灵活性和前瞻性。展望未来,通用人工智能的监管不仅关乎技术本身,更涉及法律、伦理、经济等多重维度。欧盟通过公开、包容的政策制定过程,正在塑造一个引领全球的人工智能治理范例。随着2025年下半年相关细则和指导文件的陆续出台,企业、研发机构及社会公众应积极参与讨论,紧跟法规脉动,抓住合规机遇,推动人工智能健康有序地发展。在全球数字化转型浪潮中,欧盟AI法案的成功实施将为打造可信赖的智能技术生态系统奠定坚实基础,助力欧洲实现科技自主与可持续增长目标。
。