新闻行业正经历数字化与智能化的深刻变革,特别是在新闻事实呈现的客观性和公正性问题上,人工智能技术的介入成为新焦点。作为美国领先的法律新闻服务机构,Law360近日宣布一项具有里程碑意义的新政策,要求所有记者必须对其报道内容通过由人工智能驱动的偏见检测工具进行审核。这项举措在新闻界引起了广泛关注和激烈反响。Law360隶属于LexisNexis集团,其每日为超过280万订阅用户提供实时法律新闻和分析。该平台此前已开始尝试一系列自主研发的AI工具,旨在提高新闻报道的生产效率。其中,所谓的“偏见指标”(bias indicator)是基于OpenAI的GPT-4.0模型打造的,能够自动识别报道文字中存在的潜在偏见,并提出改进建议以增强语言的中立性。
直到2025年5月15日,使用该工具还是记者自愿的辅助行为,但随后编辑部发布内部通告,将该工具使用设为强制性要求,涵盖新闻标题、内容标注、文本润色等多个环节。此举被一些高层管理者视为纠正新闻“政治偏向”的有效措施。据报道,Law360母公司LexisNexis副总裁在一次内部会议上曾公开指出平台在涉及特朗普政府专题报道时存在自由派倾向,并举例批评一则对SEC官员以“议程不明确”为题的报道。虽然是否直接推动AI偏见检测强制措施的责任尚不明确,但该言论显然为后续政策的出台埋下伏笔。记者们的日常编写流程如今被这一自动化审查机制严格侦测,许多带有立场色彩的措辞被系统标记为需要“中性化处理”,包括那些客观事实性描述和专家的引述表达。例如,有报道称关于总统动用国民警卫队首次未经申请的字眼被指出为“暗含批判”,并建议增加更多背景信息以调和语气,甚至对法院裁决用词也要谨慎调整以避免激烈表述。
该工具在处理新闻中直接引用的专家观点时,频繁将其误判为“带偏见”的表述,令采访和分析文字挣扎于自我审查与事实呈现之间,这种现象对法律新闻尤其致命,因为司法报道本质上要求科学严谨与综合解读。尽管记者多半对AI提出的编辑建议持保留态度,选择不采纳,但被迫通过机器的程序性审核却使得工作流程繁琐且备感压力。更令人忧虑的是,管理层未明确规定具体操作责任人,也未提供拒绝使用工具的合理通道,甚至以可能的纪律处分作为威慑,营造出一种监控与服从氛围。工会方面对此强烈反弹,超过九成成员联署请愿,强调职业记者应有权自行掌控信息收集与编辑的技术手段,而非受限于未经充分验证的人工智能算法。工会的AI小组也积极参与与管理层的谈判,寻求明确应用界限与保护措施。除了技术本身的争议,人工智能在新闻行业的冲击更引发对职业稳定性的深层忧虑。
在同期媒体环境中,如《Business Insider》曾公开监控员工使用ChatGPT频率,随后大规模裁员,并将部分责任归因于AI驱动的流程变革,成为当代新闻从业者关注的重要风向标。Law360内部记者对未来的裁员威胁普遍感到不安,担心AI变革不仅会逼迫他们接受新的工具,更可能成为被替代的前兆。这场围绕AI偏见检测强制使用的争议实际上是新闻业在智能化时代面临的一个缩影。如何平衡技术工具助力新闻精准与公正报道的初衷与记者的主观能动性、专业判断权,将成为未来新闻伦理与管理制度设计的重大课题。业内专家指出,简单依赖AI判断“中立”与“偏见”过于机械易失灵,新闻中“中立”本就是一个充满复杂情境与判断挑战的概念,难以被按键式解决。与其将AI作为不可动摇的裁判,不如赋予记者选择权和议题自主权,让人机协作合作打造既高效又可信的新闻流程。
同时,透明的规则制定及明确的责任划分是防止工具滥用和保护新闻自由的关键。作为全球法律新闻的重要平台,Law360的尝试无疑具有先行示范效应,既呈现出AI技术在新闻生产中的潜力,也暴露出现实操作中可能产生的矛盾与风险。未来新闻生态的创新与发展,需要建立在尊重职业记者专业判断、完善技术工具正当性的基础之上,携手推动新闻内容的质量提升与多元表达,保障公众获得真实、全面且可信的信息。随着人工智能的发展,或许Law360这场由技术引发的新闻权力和伦理争夺战,将成为开启新闻产业新篇章的关键节点。