近年来,假新闻和虚假引用在网络环境中呈现出令人担忧的增长趋势。不是简单的断章取义或故意捏造,而是生成式人工智能(generative AI)与人为疏忽共同作用下出现的大量"幻觉性"引语和虚构报道。电子前沿基金会(EFF)等知名组织也成为受害者,几则关于EFF人员被误引或被编造语录的事件,反映出一个更广泛的生态问题:当新闻生产部分或全部依赖AI工具时,媒体可信度和公共话语的质量正在被侵蚀。 EFF的遭遇并非个案。多个媒体平台发布了包含不存在引用和假引语的文章,甚至以熟悉的机构和专家的话语作为佐证,从而放大了错误信息的传播。以WinBuzzer为例,该站在数篇报道中引用了据称来自EFF人员的引述,但这些原始链接指向的内容并不存在。
最终,WinBuzzer创始人承认问题来源于"AI slop" - - 即在使用AI进行研究和撰写时,生成工具制造了不存在的引用。类似问题还出现在Wander、WebProNews以及一家自称处于"AI创新最前沿"的阿拉伯邮报下属媒体上,后者甚至捏造了名为Linh Nguyen的所谓"隐私倡导者"。 这些事件的共同点是:依赖AI生成或辅助的写作流程缺乏严格的事实核查机制。生成式模型在训练过程中吸收了海量文本,但并不"理解"信息的真实性或来源的可靠性。它们擅长根据统计模式合成看似合理的句子,因此很容易凭空制造出合乎语境却并不真实的引语或人物。这种被称为"幻觉"(hallucination)的现象,一旦未被人为核实就进入公众话语,就会造成误导、侵害机构声誉,甚至影响公共政策讨论。
媒体为什么会选择冒这个风险?成本和速度是主要驱动力。生成式AI能够在较短时间内产出大量内容,减低人力与时间成本,对追求流量和频率的媒体机构形成了强烈诱惑。与此同时,许多媒体并未建立针对AI辅助写作的操作规程或核查标准。即便有成熟的新闻伦理框架,面对AI生成的"虚构事实",传统的核查流程也可能需要调整与扩展。 假引语的危害不仅限于个别机构的名誉受损。首先,公众信任被侵蚀。
当熟悉的组织或专家被错误引用时,读者难以判断哪些信息可靠,进而对媒体和公共机构产生普遍的不信任感。其次,虚假引述可能在政策和法律讨论中产生扭曲影响。例如,错误地将某一立场或警示归因于知名权威,可能左右决策者和公众舆论,从而产生真实世界的后果。再次,对当事人的直接伤害也不可忽视,被误引的个人或机构需要耗费时间与资源澄清事实,甚至采取法律或公共关系行动。 面对这些挑战,各类应对策略急需落地。首先,媒体应建立并公开AI使用准则。
许多新闻机构和行业组织已经开始着手制定相关政策,例如无线电电视数字新闻协会和美联社等都提出了指导原则,强调在使用AI工具时必须保留人工核查环节,并对外披露AI的使用情况。透明度不仅有助于维护公信力,也让读者了解报道可能的生成过程,从而更理性地评估信息。 其次,加强事实核查流程是关键。无论文章是否由AI辅助生成,每一条引用和每一句引语都应由记者或编辑回溯到原始来源并获取确认。对于无法追溯、或来源可疑的引述,应当拒绝使用或明确标注不确定性。新闻编辑室需要为此投入资源,培训编辑人员识别AI幻觉的常见模式,并使用外部数据库与工具进行交叉验证。
第三,技术公司也应承担一定责任。生成式模型的提供者可以通过提高模型的可解释性、引入事实核查接口、或在生成内容中嵌入可追溯的来源指向,来降低幻觉发生的概率。AI研发者还应与媒体行业合作,探索如何在保证创作效率的同时,嵌入更严格的来源验证机制。部分研究机构建议开发"引用链"技术,令生成文本在引用事实或数据时自动列出训练来源,供用户进行后续核查。 公众与新闻消费者同样需要提高媒体素养。学习识别可疑引语的信号,例如没有可追溯的链接、来源过于模糊或被断章取义,都是基本技能。
可信的验证习惯包括主动搜索引用的原始文本或声明、查看多个独立来源的报道、以及关注权威机构的官方网站声明。在面对可能与重大公共议题相关的引用时,读者应保持审慎,直到获得可靠来源的确认。 法律与政策层面也在跟进。随着AI生成虚假内容对社会造成的实际伤害增多,部分监管讨论将聚焦在平台责任、内容标注义务与透明度要求上。然而,监管应避免一刀切地限制技术创新或言论自由,而是优先确保信息可溯源性与问责机制。对故意散布虚假引语的行为,传统法律工具如诽谤法、版权法与合同法仍可发挥作用;对于非故意的技术幻觉,可能需要新的行业标准与技术治理措施来缓解风险。
EFF在面对错误引用时的反应也提供了实用范例。EFF不仅公开指出被误引的实例,要求媒体撤稿并更正,还重申其版权政策和传播原则,鼓励公众在传播其原创内容时遵守署名规则。这种主动澄清不仅保护了组织声誉,也提醒公众对来源进行核验。 此外,机构内部也应考虑如何在对外传播中更好地防范被误用或被篡改的风险。例如,明确对外发言人的名单和联系方式,公开常见的引用准则,以及发布可供媒体直接引用的官方声明渠道,都能在一定程度上减少错误引用的机会。对于大型组织而言,及时监测媒体引用情况并快速响应,是维持信息准确性的另一项重要工作。
教育系统与非营利组织在提升社会整体信息素养方面同样不可或缺。图书馆、学校和民间组织可以举办面向公众的事实核查与媒体素养培训,教授识别AI幻觉、验证引用和评估新闻来源的技巧。像ProPublica、Poynter等机构已经提供了大量实用工具和模板,值得在更广泛的场合推广。 在技术治理层面,研究者提出了若干可行方向。包括开发更强的事实核查模型,将事实验证作为生成过程的一部分;设计在生成文本中自动附带来源标注的系统;以及建立跨媒体、多机构共享的错误案例数据库,使编辑和记者能参考以前发生的AI幻觉模式,从而提高识别率。通过技术与流程双管齐下,可以降低未来类似事件的发生概率。
值得注意的是,完全拒绝AI并非现实也非最佳策略。生成式AI在信息提炼、初稿生成、繁冗数据分析等方面确实提供了效率优势。关键在于如何将AI纳入成熟的编辑流程,而不是让AI替代编辑判断。把AI定位为辅助工具而非最终作者,保持人类对事实核验和伦理判断的主导权,是当前最务实的路径。 媒体、技术公司、监管机构与公众之间需要一种新的协作关系。媒体要承担起专业核查责任,技术公司要在工具设计中嵌入安全与可溯源机制,监管要制定明确且可操作的透明度与问责要求,公众则需要不断提升辨识信息真伪的能力。
只有多方协同,才能扭转假引语泛滥对公共话语的侵蚀。 最后,信任的修复不是一步到位的工程。每一次被发现并纠正的错误,都应当成为改进流程和传播实践的契机。EFF等组织的回应表明,积极纠错、公开澄清与教育公众同样重要。面对生成式AI带来的新风险,媒体与社会需要保持警觉、更新规程,并在维护言论自由的同时,尽最大努力保护信息的真实性与公共利益。 。