近年来,人工智能特别是大型语言模型的迅猛发展,极大地改变了人们获取和传播信息的方式。然而,伴随着技术进步,一些恶意势力开始利用AI的特殊机制来进行有害信息传播,其中俄罗斯旗下的“Pravda网络”尤为引人关注。该网络利用大量自动化工具在互联网上大规模发布亲俄宣传内容,试图通过腐蚀人工智能聊天机器人,来使之在应答中自动复述虚假信息和宣传口径,从而在全球范围内制造混乱和误导,给信息安全和民主制度带来了空前的挑战。 “Pravda网络”正式运作始于2023年,虽然名称与传统的苏联宣传媒体“真理报”没有关联,但该网络却继承了类似的宣传策略。不同的是,Pravda网络的内容生成和传播高度依赖自动化技术,其覆盖范围涵盖至少74个国家和地区,使用12种主要语言,且针对欧盟、北约等国际组织以及全球多个知名政治领导人。网络包括182个独立域名和子域名,其发布量庞大,年发表亲俄文章估计达到360万篇以上,而这些内容大多缺乏用户友好性,且网页设计粗糙,显然不是为人类用户设计,而主要目的是确保内容能够被谷歌等搜索引擎的爬虫程序和AI训练系统扫描和采集。
这种面向算法而非直接面向人的内容推广策略,是一种全新且危险的信息战形式,被研究者称为“LLM培养”。大型语言模型(LLM)是当前人工智能聊天机器人的核心,它们通过大量互联网文本数据进行训练,学习如何生成自然语言回答。若训练数据中充斥着亲俄虚假宣传,模型就可能在回答用户时无意间传播这些错误信息,形成恶性循环。这不仅让谣言有了新的“寄生体”,而且使虚假内容能够源源不断地通过AI助手传递给全球用户,扩大其影响力。 这一现象的潜在危害不可小觑。首先,虚假信息被内嵌于AI模型,导致即使普通用户没有主动去浏览那些亲俄网站,也可能在日常对话中遭遇误导。
更甚者,这种影响难以觉察,用户很难判断源头真假,容易在无意间成为虚假内容的传播者。其次,虚假宣传的持久性和自我强化能力极强。由于人工智能模型逐渐迭代更新,若不刻意清理“有害内容”的训练素材,错误信息便会不断加深其存在感,形成信息生态的恶性反馈。目前已有报告显示,一些大型AI聊天机器人确实曾引用Pravda网络的内容作为信息来源,明显偏向某些有争议的政治立场。 此外,Pravda网络内容不仅出现在AI训练数据中,还被发现出现在维基百科等公共知识库的引用中,这使得信息污染更广泛地渗透到社会主流的信息平台。这种信息洗白过程让原本边缘化的虚假宣传获得官方及“客观权威”的背书,误导性极强,破坏社会的认知基础。
“迭代式训练”也成为当前AI领域的一个重大隐忧。该过程指的是AI模型依赖于由其他AI产生的内容进行再训练,最终导致“信息的自我循环”,即一批初始虚假内容被AI生成后再次被同类模型采集,这种“AI生态内的信息污染”正加剧互联网整体信息质量的恶化。近期发表在Nature上的研究更是指出,这种情况可能造成所谓的“模型崩溃”,人类原创内容将成为稀缺资源,互联网资讯质量急剧下滑。 面对如此复杂且深远的威胁,科技界、政策制定者和社会公众需合力展开多方面的应对举措。首先,负责构建大型语言模型的科技企业和研究机构必须增强意识,加大对训练数据质量的把控,避免纳入被确认的恶意宣传内容。严格的数据清洗和质量审查流程必须成为AI开发的常态,他们还应与专业的反外宣机构和信息安全单位紧密合作,实时监控潜在的“LLM培养”行为。
其次,政策层面亟需出台相应法规,要求所有发布和维护大型语言模型的实体,承担起防范外国恶意信息输入的责任。应对AI生成内容制定更为严格的透明度要求,不仅在结果中明确标示可能存在的虚假信息风险,还应建立独立审查和监管机制。同时,政府应出台专项资金支持互联网信息素养教育,推动面向广大群众的信息识别和批判能力培养,提升社会整体抵御虚假信息的免疫力。例如,爱沙尼亚和芬兰的信息素养课程为抵抗外来信息干扰提供了宝贵经验,值得其他国家借鉴。 再者,公众自身也需意识到虚假信息正通过最先进的技术潜移默化地影响他们的认知。了解什么是人工智能、知道AI的局限性以及保持对信息来源的批判态度,成为现代数字公民的基本要求。
网络用户应慎重对待AI聊天工具提供的信息,尤其是涉及政治、国际关系等敏感话题时要多渠道核实,不盲信单一数据源。 除了技术和政策之外,国际社会的协作同样重要。信息战和数字治理的跨境特性决定了单一国家难以独立应对此类挑战,建立多国间的技术与情报交流机制、协调一致的标准和应急响应体系至关重要。特别是在保护民主制度和信息开放的基础上,合作打击恶意宣传网络,比如Pravda网络,促进全球网络空间的稳定与公平。 不可忽视的是,当前美国在人工智能监管方面存在一定的滞后,相关举措受限于政治环境和政策优先级,短期内难以产生根本改变。但互联网的生态早已进入了一个新阶段,单纯沿用20年前的思维和制度必然无法应对今天高度智能化的信息战。
我们需要前瞻性地理解AI赋予的信息力量及其被滥用的风险,并以全面、协同的方式维护网络空间的安全与诚信。 总之,俄罗斯网络通过“Pravda网络”大规模传播亲俄虚假宣传,利用AI训练机制渗透并腐蚀聊天机器人,开辟了信息战的新战场。面对这一挑战,科技界、立法者、教育者以及每一位互联网用户都应行动起来。加大数据审查力度,完善法律法规,强化信息素养教育,推动国际合作,才能从根本上遏制LLM培养现象,守护互联网作为开放、公正信息平台的底线,保障民主社会的稳定发展。未来的数字时代,信息的真实性与安全不仅是技术问题,更是全民共同的责任。只有形成全社会的合力,才能有效抵御利用人工智能进行信息污染的新型威胁,迎来更加透明、公正的信息新时代。
。