随着人工智能技术的迅猛发展,全球各国纷纷加紧制定相关法律法规,以规范AI的应用,保障社会安全和个人隐私。作为全球技术监管的重要先行者,欧洲联盟在2021年提出了雄心勃勃的《人工智能法案》(即AI Act),试图通过严格的监管框架,塑造安全、可信的人工智能生态。然而,时至今日,这部法案不仅尚未被废除,反而显示出非常强的生命力和延续性,背后的原因引发了广泛关注和深入探讨。首先,AI法案之所以难以废除,根本上源于欧盟复杂而独特的政治和制度结构。欧盟作为一个超国家性政治联盟,权力分散于多个机构,包括欧盟委员会、欧洲议会及理事会,各方在AI法案推进过程中的利益诉求和议程存在一定差异,使得任何对法案的彻底废除都需要克服极高的协调成本和政治阻力。此外,欧盟的预算规模和财政权力有限,使得政策影响力更多体现在法律监管上,而非大规模资金投入。
在无法通过预算杠杆直接推动技术发展和产业培育的情况下,法规成为欧盟实现政策目标的主要工具,这一制度性激励自然推动欧盟机构倾向于通过持续制定和完善监管法规来显示其施政能力。其次,从法案内容层面来看,AI法案试图以"风险为本"的分级方式,区分不同类别的人工智能应用,尤其将某些系统界定为高风险,要求满足严格的合规审查和透明度标准。这种框架虽然体现了对技术潜在危害的警觉与防范,但因其过于严格和繁琐的合规要求,客观上抑制了创新,尤其是在教育、医疗和金融等重要领域的AI应用。举例来说,某些能够根据学生表现个性化调整教学内容的AI系统被归为高风险类别,面临繁复的合规门槛,令不少创业者望而却步,无法在欧洲市场展开业务。法案对数据收集、算法透明度和人机监督的严苛要求,在一定程度上与通用数据保护条例(GDPR)形成叠加,使得企业在数据治理和合规成本上承受巨大压力。此外,AI法案规定禁止某些类型的自动推理(例如推断学生情绪)直接应用于决策过程,这些限制虽有保护隐私和防止歧视的良好初衷,却限制了部分AI技术的实际效用和用户体验。
第三,法案的诞生时间与全球AI技术迭代的节奏严重错位,加剧了其执行的困难和争议。AI法案的第一版草案于2021年发布,彼时尚未出现ChatGPT等关键的通用人工智能产品,而这些产品的出现引发了"AI爆发式发展"的新局面。面对突如其来的技术革命,欧盟决策层陷入了时间上的巨大压力,试图在短时间内将通用AI纳入已有的监管框架之中,导致立法过程中出现大量临时性拼凑,法律条文难以完全适应实际技术演进的需求。这种赶工式立法不仅带来监管模糊,也削弱了法案的预见性和实践中的效用。同时,法律实施和监管体系本身结构复杂,设立了多个监管层级和机构,如欧盟AI办公室、成员国市场监管局和多个合规评估机构。监管职责的高度分散在27个成员国,以及在体制层面要求监管者具备深厚的AI技术和数据保护知识,实际操作中面临人力资源短缺和协调困难。
监管碎片化不仅削弱了执行力,也使得欧盟内部形成了制度惯性,难以推动根本性的改革或废止法案。除此之外,政治层面的利益固化效应也不可忽视。AI法案凝聚了大量立法者、专家和利益相关者的努力,废除或大幅修订意味着承认此前立法的不足,面对政治成本和面子问题,相关机构和人员缺乏足够动力推动废止。成员国内部的态度也参差不齐,缺乏统一的声音和行动,使得批评与改革声浪难以形成压倒性压力。最后,从更宏观的角度看,欧盟正处于全球AI技术竞争的关键阶段。在美国和中国领先快速推进AI基础模型和商业应用的背景下,欧盟试图通过法案塑造"可信与安全"的市场环境,以期建立技术伦理和规范优势。
虽然目前AI法案被视为限制创新的"绊脚石",但从长远视角,欧盟仍存有借助法案优势实现差异化竞争的战略意图,这种政策选择进一步加固了法案的存在基础。综合而言,欧盟AI法案难以被废除的现象,是制度设计、政治逻辑、法律内容及全球技术竞争多重因素交织的结果。要想真正破解这一困局,需要欧盟内部推动监管与创新的平衡转型,优化法律框架,促进成员国共识从而实现更灵活、务实的治理。同时,加强技术研发投资、改进监管机构能力建设,以及引入动态的法规调整机制,也是未来改进的关键路径。唯有如此,欧盟才能不被自身繁重的法规所桎梏,真正抓住人工智能带来的历史性发展机遇,重塑全球竞争格局。 。