近年来,人工智能技术飞速发展,广泛渗透进医疗、法律、金融等多个专业领域,使得AI在支持专业决策、提升效率方面展现巨大潜力。然而,这种技术进步也带来了前所未有的法律风险和责任归属挑战。针对这一现状,美国参议员辛西娅·卢米斯于2025年提出了《负责任创新与安全专业知识法案》(Responsible Innovation and Safe Expertise Act,简称RISE法案),意图为专业级AI技术设立一套明确的民事责任保护机制。该法案被视为美国首个专门针对专业AI领域的责任改革立法,按卢米斯的说法,旨在确保医生、律师、工程师等专业人士在依赖AI工具时,能够清晰理解该技术的能力与局限,从而安全、有效地应用。法案主要设计了一种责任保护,免除开发者因AI不可预见性带来的严格责任,但同时要求AI开发者公开技术规格,让专业使用者获得必要信息进行合理判断。初看之下,RISE法案无疑具有“及时且必要”的意义,尤其是在人工智能进入更多关键行业的当口,明确法律边界有助于在促进创新与保护专业安全之间找到平衡。
专家哈米德·埃克比亚(Hamid Ekbia)认为,法案提出的保护措施有利于降低AI开发者的法律风险,防止他们因不可控的AI输出承担无尽责任。然而,法案同样被质疑过分偏袒AI开发商,将大部分风险转嫁给使用AI的“受过专业训练的人员”,如医生和律师,这些专业人士需承担由AI决策带来的潜在疏忽后果,而AI开发者所承担的仅是一定程度的信息透明义务。事实上,透明度是RISE法案的一个核心亮点之一。法案要求AI开发者提供模型卡和具体技术指标,帮助专业用户了解模型的功能、限制和风险,从而理性应用共享工具。但透明度标准并未扩展至AI的价值观、目标、潜在偏见等更深层面内容,这也成为业界批评的焦点。非营利研究组织AI未来项目指出,公众有权知晓AI系统背后的设计取向及其带来的社会影响,但法案未涉及这些更为宏观的透明信息,这意味着监管和民众对AI治理的期待可能无法得到充分满足。
此外,法案的适用范围相当有限,主要覆盖有专业中介参与的使用情景,例如医生使用AI辅助诊断,金融顾问借助AI设计投资方案等。对于AI与终端用户直接互动、尤其是未成年人等弱势群体,RISE法案没有针对性规定。现实案例如佛罗里达一名青少年因长期与AI聊天机器人互动导致自杀,受害者家属控诉AI系统设计缺陷未对青少年使用安全进行保障,但RISE法案对此类情形未作回应,令许多法律界和伦理学者担忧。英国萨里大学的瑞安·阿博特教授指出,AI技术极具复杂性和自主性,可能引发的新型伤害难以用传统法律框架一一覆盖。尤其是医疗领域,人工智能的诊断表现逐渐突破以往界限,但人机协作下的责任判定却变得更为模糊。如果医生对AI辅助结果的依赖导致诊疗失误,赔偿责任由谁承担尚无定论,现存的医疗事故保险制度也可能面临挑战。
比较来看,欧盟2023年颁布的AI法案采取了更为积极和权利导向的监管策略。其基于人权的框架强调保护终端用户的合法权益,确保消费者、患者等群体能享有明确的安全保障和救济途径。相比之下,RISE法案采用的是风险管理为核心的流程监督模式,更侧重于技术开发和部署环节的记录与评估,而非直接赋予受害者具体权利和清晰责任主体。欧盟法案要求AI开发商在技术潜在风险和安全性验证方面承担严格义务,推动行业迈向更透明且负责任的发展模式。但据知情人士透露,欧盟先前尝试的AI责任指令因工业游说影响,在2025年初被撤回,显示出AI监管路径上的复杂博弈。美国方面,专家普遍认为RISE法案还需持续完善。
法律界律师菲利克斯·希普凯维奇认为,给予AI开发者一定程度的责任保护合理且必要,防止因无法控制的模型行为陷入无限诉讼风暴。但是,若能够在后续立法中强化透明度要求和风险管理责任,落实第三方审计等措施,将有助于构建更为平衡的制度环境。美国负责责任创新的政策副总裁贾斯汀·布洛克也指出,单纯发布模型技术参数远不能完全保障使用安全,缺乏严格的独立评估和风险检测可能产生虚假的安全感。显然,RISE法案是一个良好的起点,其颁布和实施可能标志着美国联邦层面针对专业级AI应用建立统一标准的开始。但立法过程仍需来自各方利益相关者的持续推动和修正,以涵盖多样化的使用场景、提升信息披露质量,尤其要平衡开发者保护与使用者安全的双重需求。法案预计如能通过,将于2025年12月1日生效。
随着人工智能的广泛普及与不断演进,类似RISE法案的法规创新举措将对行业未来走向产生深远影响。立法者、科技开发者、专业用户以及普通民众都应密切关注相关动态,共同推动构建负责任、透明且安全的AI技术生态。这不仅关乎单一国家的法规完善,更关系到全球人工智能治理的未来格局。