随着人工智能技术的迅猛发展,如何在推动创新的同时有效管理潜在风险,成为全球立法机构面临的重要议题。2025年,美国参议员Cynthia Lummis提出的《负责任创新与安全专业知识法案》(Responsible Innovation and Safe Expertise Act,简称RISE法案)引起了广泛关注。该法案意图为AI开发者提供一定的法律保护,减少技术创新时的过度法律风险,但同时也对医生、律师、工程师等专业人士提出了更高的使用责任要求。然而,尽管RISE法案被视为及时且必要的举措,其内容却被批评为缺乏细节和透明度,难以应对人工智能日益复杂的应用场景。 Lummis参议员将RISE法案称为美国针对专业级AI的首个针对性责任改革立法,其核心目标在于平衡保护AI开发者与维护公共利益之间的关系。法案提出,AI开发商需要公开其模型的技术规格,向如医生、律师等专业用户说明AI工具的功能与限制,从而让使用者能够理性并谨慎地根据工作需求采用AI辅助。
然而,专家们指出,这种“透明度”主要局限于技术参数的披露,如模型卡和详细规格,未涉及对AI系统目标、价值观、潜在偏见或设计意图等更深层面的说明,这使得AI开发者只承担有限的责任豁免,大部分风险最终落到了使用者身上。 Syracuse大学公共事务学院教授Hamid Ekbia认为,RISE法案虽“及时且必要”,但其责任承担分配过于倾向AI开发商。开发商只需满足最低程度的技术公开义务,即可获得广泛的责任豁免,而使用者——无论是医生、金融顾问还是工程师——则必须理解和承担由AI工具引发的潜在风险。这样的责任转嫁,可能会对专业人员造成沉重负担,甚至限制AI技术在高风险领域的推广和应用。 民主地下论坛“Democratic Underground”成员也批评法案是“对AI企业的放纵”,认为其保护了开发商免遭因工具失误引发的诉讼,而这正是这些公司所追求的免责机制。相比之下,法律职业人士如Felix Shipkevich则指出,从法律角度看,RISE法案的责任豁免条款符合当前对大型语言模型不可预测特性的认识。
法律无法要求开发商对模型所有输出承担绝对责任,尤其是在无恶意或过失情况下,否则开发商将面临无限的风险暴露,这对创新是极为不利的。 然而,RISE法案的适用范围比较有限,主要针对专业人士在服务客户和患者时使用AI的场景。举例来说,金融顾问在为客户制定投资策略时使用AI辅助决策,或放射科医生利用AI分析医学影像。值得注意的是,法案没有覆盖AI开发者直接面对最终用户的使用场景,例如未成年人使用AI聊天机器人产生的悲剧性事件。近期佛罗里达一例因与AI聊天机器人互动后导致青少年自杀的案件触发了公众对受害责任界定的强烈关注,但该类情况尚未在RISE法案中得到回应和规范。 法学与健康科学双学位教授Ryan Abbott强调,AI技术带来许多新型风险,其复杂性、操作透明度不足及自主性,使得传统法律责任模式难以直接套用。
尤其在医疗领域,随着研究显示部分情况下“人类参与反而导致AI辅助决策效果下降”,医疗责任的归属更加扑朔迷离。若严格执行现有医疗事故责任体系,医疗保险是否涵盖AI介入的错误,以及如何界定医患之间的责任关系,都是悬而未决的问题。 非营利研究机构AI Futures Project对RISE法案给予初步认可,参与了该法案草拟过程,但其执行董事Daniel Kokotajlo批评法案所要求的透明度披露不够充分,未能涵盖公司对AI系统设定的目标、价值观和偏见等关键信息,造成公众监督和风险评估上的盲点。他指出,现行条款允许公司选择接受责任而非增加透明度,缺乏强制约束力,在监管和公共信任建设上存在不足。 相较于美国的风险基则,欧盟在AI监管方面采取了更明确的以“权利为基础”的框架。2023年推出的欧盟AI法案为首个覆盖全面且具强制性质的AI监管体系,起初计划通过的法律责任指令尽管因行业游说被撤回,仍体现了欧盟力图提升用户权利保障和技术安全要求的趋势。
欧盟法规侧重于赋予终端用户——包括患者与消费者——更明确的法律权益,而不仅仅是过程和风险控制文件。 讨论美国未来AI立法方向时,专家多认为应结合风险管理与使用者保护。法律顾问Shipkevich指出,给予非过失与无恶意的开发者一定程度的保护,在确保技术创新的同时避免无休止诉讼,具有必要性。但他也强调,RISE法案需要强化透明度和风险管理责任,将风险予以系统性控制,使得各方权益得到平衡保障。 Americans for Responsible Innovation政策副总裁Justin Bullock对法案赞赏其在联邦层面首次提出透明度指导和有限范围的安全港原则,同时呼吁相关模型卡与技术公开应伴随第三方审核和风险评估,避免真实性和有效性的缺失。他认为尽管仍有不足,RISE法案为美国未来AI领域的法规制定奠定了积极讨论的基础。
预计若RISE法案顺利通过并于2025年12月1日生效,美国AI责任管理体系将迎来转折点。但鉴于人工智能技术的快速发展和复杂性,法律制定和修订仍需持续跟进,结合国际经验和行业实践,完善责任划分、透明度标准及风险控制机制。唯有如此,才能确保AI技术在医疗、法律、金融等关键领域安全可靠地应用,推动科技健康可持续发展,实现创新与公共利益的有机统一。 总结来看,Lummis参议员的RISE法案毫无疑问是美国在人工智能领域迈出的一步关键性尝试,旨在厘清责任边界,促进专业级AI的安全使用。虽然当前版本仍存在诸多细节不足与保护偏颇的问题,但其提出的核心思路为后续立法改进提供了参考蓝本。未来,随着更多利益相关方的参与和反思,RISE法案有望逐步完善,助力构建更为合理和均衡的人工智能责任框架,推动科技创新与社会信任的双赢局面。
。