近年来,人工智能技术迅速发展,逐渐渗透到医疗、法律、工程等专业领域,极大地改变了人们的工作和生活方式。然而,随之而来的法律责任和伦理问题也日益凸显。如何在保护创新发展的同时,合理界定人工智能引发的责任,成为立法者面临的重要课题。美国参议员辛西娅·卢米斯(Cynthia Lummis)于2025年提出的《负责任创新与安全专业知识法案》(Responsible Innovation and Safe Expertise Act,简称RISE法案)正是在这一背景下诞生的。该法案被不少专家视为“及时且必要”的立法尝试,旨在针对专业级人工智能的民事责任进行改革,但也因细节不足和保护范围引发质疑。RISE法案的核心内容在于为使用专业AI工具的从业人员——包括医生、律师及工程师等——提供更加明确的责任界定。
法案试图通过限制AI开发者在一定条件下的法律责任,促使这些专业人士深入理解人工智能的功能和局限,从而更负责任地依赖该技术。这一机制表面上似乎对AI开发者提供了一定的豁免权,意在减轻开发者面对不可预见AI输出的潜在法律风险,鼓励技术创新与应用。然而,这种平衡也引发了争议。研究者和从业界人士普遍认为,法案将过多责任集中于专业用户,要求他们承担因信赖AI导致的损害风险,而AI开发商仅需披露模型基本技术规格即可免责。这是否合理,成为争议焦点。一方面,法案中对AI开发者的透明度要求仅限于技术层面的模型卡和说明书,未能充分涵盖AI系统的目标设定、潜在偏见、价值观导向等关键内容。
这种片面的信息披露恐难以满足社会公众和监管机构对AI透明度和可解释性的期待。部分观察者认为,此举实际上给予了AI行业一定的“豁免”空间,可能掩盖技术内在缺陷和潜在风险。另一方面,专业人士在实际操作时面对复杂且有时本身不透明的AI系统,承担过多法律责任也可能造成职业风险激增,甚至阻碍AI在关键行业的合理利用。例如,医疗领域中,随着AI诊断辅助工具的普及,医生在依赖AI建议与自主判断间的责任分配显得尤为复杂。一些研究表明在人机协作中,反而可能出现“人类监督反效果”,即有时完全依赖AI反而更有效,法律责任如何厘清是亟待解决的问题。与美国的RISE法案相比,欧盟AI法规体系采取了更为全面和权利导向的做法。
尽管欧盟最初计划的AI责任指令在2025年被撤回,主要因产业游说压力,但整体仍坚持以保障用户权益、促进透明度和安全性为重心。欧盟法律强调AI系统的风险等级管理,要求开发者在产品上市前需满足严格的安全性和合规标准,用户也拥有明确的权利救济途径。欧盟的“权利基准”与美国法案的“风险基准”形成鲜明对比。美国更侧重于行政和技术流程规范,依赖开发者提供的技术文档和相关评估,而欧盟则偏向于赋予终端用户更多保护权利,确保个人不因使用AI而受到不可逆的损害。这种差异反映出两者在监管文化和法律哲学上的不同取向。尽管如此,美国RISE法案仍被视为AI立法的有益尝试。
政策专家和法律学者普遍认为,法案虽不完美,但为未来形成更加均衡合理的法律框架奠定了基础。完善的透明度评估机制、第三方审核制度以及更加细化的责任分配规则亟待纳入。同时,对于缺乏专业中介的直接用户场景,如青少年使用聊天机器人等问题,法案尚未涵盖,这也是未来立法重点关注方向。在美国和国际社会对AI技术风险与价值的认知不断深化之际,RISE法案的出台提醒我们,人工智能责任法制建设既要鼓励技术创新,也必须满足伦理和社会需求。只有明确责任边界、增强透明度,并结合不同应用场景的特殊性,才能实现技术进步与公共利益的协调发展。未来,如何平衡AI开发者、专业使用者与终端用户间的权利义务关系,依然是充满挑战的课题。
期待立法者在持续完善RISE法案与制定更多配套规则时,吸取国内外经验,搭建科学、合理、透明的人工智能法律制度体系,确保AI技术健康有序地服务社会。