近年来,人工智能技术飞速发展,逐渐渗透到医疗、法律、工程等多个专业领域,给人类生活和行业实践带来了深刻变革。然而,随着AI系统在专业实践中的广泛应用,其潜在风险和责任归属问题日益凸显,成为法律法规亟需解决的重要课题。美国参议员辛西娅·卢米斯于2025年提出的《负责任创新与安全专业知识法案》(Responsible Innovation and Safe Expertise Act,简称RISE法案)正是在此背景下应运而生。该法案试图为专业级AI应用确立合理的民事责任框架,保护AI开发者免受过度诉讼,同时要求专业人士明晰AI工具的能力与局限。然而,尽管该法案被视为应时之举,业内对于其细节缺失、责任划分不均及透明度不足等方面存在诸多反思与争议。 RISE法案的核心目标是保障AI开发者在民事责任中的有限责任,避免他们因AI工具的不可预见行为而背负无限风险。
这一措施在一定程度上回应了开发者面对大型语言模型等复杂AI系统难以掌控输出内容时的法律焦虑。法案中规定,AI开发者需公开其模型规格,如模型卡和技术参数,以便医生、律师、工程师等专业人士在依赖AI工具时能了解其性能边界和潜在风险。此外,专业人员向其客户或患者提供基于AI辅助的服务时,将承担主要的法律责任,推动这些“知识分子”对AI建议保持警觉并妥善评估。 然而,专家对该法案的评价并非全然正面。伊客比亚(Hamid Ekbia)教授指出,该法案过度倾向保护AI开发者,承担风险的重担几乎全部压在专业人士身上。透明度要求仅限于技术规格的披露,而并未深入探讨AI系统背后的价值导向、偏见来源或设计动机等关键信息,难以为使用者提供全面的风险评估基础。
民间论坛“民主地下”甚至将该法案视为AI企业希望规避责任的“赠与”,认为其可能削弱公众权益保护。 法律界人士如费利克斯·希普凯维奇也灵活看待法案中的责任豁免条款。他表示,保护AI开发者免受非过失性伤害诉讼,从法律逻辑上是合理的,因为AI的某些行为难以人为控制,若无保护措施,可能导致开发者承担巨大且不可预估的法律风险。这类保护有助于鼓励创新,同时防止司法资源被无休止的诉讼消耗。 然而该法案的适用范围较为有限,主要针对通过专业人士作为中介进行的人工智能应用场景,例如医生使用AI辅助诊断、金融顾问借助AI制定投资方案等。而对于无专业中介直接面向普通用户的场景,诸如面向青少年的聊天机器人,则未有明确的法律规范。
近期佛罗里达一宗因AI聊天机器人引发青少年自杀的悲剧就凸显了这一漏洞,公众对于AI安全性的关切日益增强,但RISE法案对此类问题未做涵盖,暴露出其立法范围的不足。 在全球视角下,欧盟的AI法规尝试采取更为全面且以权利为核心的框架。欧盟2023年提出的AI法规强调赋予终端用户明确权利,以保障个人安全与隐私,要求开发者在设计之初即须遵循安全及透明规则,并承担相关责任。相比之下,RISE法案采用风险管理为导向,重点在于流程、文档与评估工具,关注技术部署者的责任,而对个人具体权利的保护较为间接和有限。 专家们普遍认为,无论是美国的风险导向还是欧盟的以权利为本,AI民事责任立法都面临诸多挑战。AI系统的复杂性、决策过程的不可解释性以及其自治性,都使得法律界难以界定明确的责任归属。
特别是在医疗领域,传统上医生往往被认为是最终责任主体,但随着AI辅助诊断技术的成熟,医生是否还应完全承担因AI误判造成的损害,其合理性正在受到质疑。在某些病例中,人机结合反而可能导致诊疗效果不佳,进而引发新的赔偿责任问题,这需要保险业和法律体系做出相应调整与创新。 此外,AI未来项目(AI Futures Project)等非营利机构对RISE法案表示支持的同时,也指出其在透明度方面的软弱。项目执行董事科科塔伊洛认为,公众理应获知AI系统所承载的价值观、设定目标、潜在偏见及指令,这些信息的披露能帮助社会理性看待AI系统的风险与局限,而非凭借单一的技术规范文件进行表面透明。另一个关键问题是,若企业不愿透彻披露,可以选择接受责任,但如果能以透明为代价换取豁免,可能导致监管目的落空。 尽管面临质疑,RISE法案仍被视为联邦层面对AI透明度与责任问题的首次有意义尝试。
美国相关政策人士和法律专家趋向认为,该法案是一个可供持续完善的起点。将来,如果能够在赋予开发者责任豁免的同时,引入强制性的第三方审核和风险评估机制,提高模型卡的质量与实效,或许能够实现技术创新与公众利益保护的平衡共赢。 展望未来,人工智能法律环境的构建必将是一个迭代渐进的过程。其核心在于理清技术开发者、应用专业人员、最终用户和社会整体之间的责任链条,设计出既能够鼓励创新、又不损害公众利益的制度框架。随着AI算法透明度和风险可控手段的逐步完善,法律政策应同步演进,确保所有利益相关方理解其权利义务,从而营造一个安全、可信且可持续的人工智能生态体系。 简而言之,卢米斯的RISE法案作为美国第一部针对专业级AI设定民事责任的立法提案,体现了对AI时代法律空白的及时响应。
它为专业人士提供了认识并承担AI工具带来风险的路径,同时试图减轻开发者的潜在法律压力。然而,法案当前仍在“初稿”阶段,缺乏对AI系统设计背后的深度透明要求,未能涵盖所有可能的应用场景,特别是直接面向非专业用户的领域。未来的法律完善需要更多跨界合作、技术理解和社会共识,以塑造真正合理且全面的AI治理框架,推动人工智能技术健康发展,充分发挥其赋能人类的积极作用。