随着人工智能技术的快速发展,尤其是生成式AI工具如ChatGPT的普及,法律行业也面临着前所未有的新挑战。近期,英国高等法院对律师在法律文书中使用虚假或错误的AI生成引用现象发出了严厉警告,指出律师若滥用此类技术,导致提交给法院的材料含有虚假信息,不仅会损害司法公正,还将面临严重的职业和法律后果。英国高等法院的这一表态不仅反映了司法系统对AI潜在风险的高度重视,也为全球律师群体运用AI辅助法律工作的规范提出了明确的警示。法官维多利亚·夏普在两起相关案件中指出,这些生成式AI工具虽然表面上回应连贯且似乎符合逻辑,但其背后缺乏对法律文献的准确检索能力,部分内容乃至引用完全虚构,不能信赖。她强调,律师在利用AI进行法律研究时,必须基于权威资料核实AI提供的信息的准确性,任何疏忽都可能导致严重后果。以一起有代表性的案例为例,一名律师在为当事人起诉两家银行的法律文件中提交了45条引用,其中竟有18条引用的案件从未存在,更有部分引用内容不仅与案件无关,还被错误地赋予了不符事实的法律观点。
另一案例中,一位律师在为被驱逐的当事人递交的材料里引用了五个不存在的案例。尽管该律师否认直接使用AI,推测这些可能来源于Google或Safari的AI生成摘要,但法院对此行为仍表示极大关注。法院虽然未即时启动藐视法庭程序,但明确指出这不构成宽容先例,类似行为今后将严肃处理。英国高等法院表示,律师若未遵守其对法院的职责,如提交含虚假引用的法律文书,法院可采取包括公开谴责、罚款、藐视法庭处罚,甚至将案件移交警方处理等多种措施。显然,职能机构如大律师协会和法律协会将会收到此裁决的正式通知,并可能推动行业规章的进一步完善,以适应AI时代的法律实践需求。此次警告有助于厘清律师在AI辅助法律服务中的职责分界。
虽然AI工具能够提升工作效率、辅助资料整理,但彼此可靠性和准确性尚不能完全确保。律师必须对AI生成内容进行严格审核,不能无条件依赖机器人生成的“答案”,尤其是涉及法律观点和案例引用的关键细节。此举有助于维护法律职业的诚信和司法体系的公信力,防止误导法庭和当事人,避免因虚假信息造成的司法误判和社会不公。对律师而言,遵从这一警示意味着不仅要掌握传统的法律研究技术,更要了解如何科学、严谨地结合AI工具,构筑双重把控的信息核查流程。包括人工验证资料来源、反复交叉检验引用内容的有效性,以及保持对专业伦理的敬畏。此技术与伦理并重的路径将成为AI时代法律工作的常态。
从更宽广的视角来看,英国高等法院的态度也为全球司法体系提供了宝贵教训。AI加速进入各行各业,如何合理利用AI促进工作与提升决策质量,同时规避潜在的伪造、误导和数据错误,对于法律行业至关重要。英国这一先行经验或将激励其他国家和地区加强对AI在司法领域使用的监管与教育,确保法律标准不因技术发展而松懈。此外,此事件也提醒律师事务所和法律服务平台注重培养律师的AI操作能力和风险意识,推动建立更完善的技术使用规章和职业道德准则。只有在确保信息真实、严谨的基础上,AI才能成为提升法律效率和服务质量的利器。公众和当事人也应意识到,AI生成内容并非权威,面对涉及重大法律利益的材料时,应向专业律师求证,而非盲目信赖技术产物。
综上所述,英国高等法院对律师滥用AI生成虚假法律引用所发出的严厉警告,是法律从业者进入AI时代必须深刻理解和遵守的重要指引。它强调了专业责任、信息核查和法律诚信的重要性,同时也彰显了司法机构积极应对技术变革、维护司法公正的决心。未来,随着AI技术日益成熟与普及,法律领域将不断探索适应与规范的最佳路径,确保科技进步能够真正服务于法治和社会公平,而非滋生新的风险和危害。