在当今人工智能技术迅猛发展的背景下,AI模型在为用户提供信息和内容服务方面扮演着重要角色。然而,最近由美国安全项目(American Security Project)发布的一份报告引起了广泛关注和讨论,该报告指出,全球五款流行的大型语言模型(Large Language Models, LLMs)——包括美国主导的ChatGPT、微软Copilot、谷歌Gemini、DeepSeek的DeepSeek-R1及X公司的Grok——均在某种程度上反映了中国共产党(CCP)的官方宣传立场,并对其视为不宜公开的内容进行了审查和掩盖。令人震惊的是,这些AI模型中仅有一款源自中国,其他多款均由欧美企业开发,却未能摆脱对中共话语体系的依赖和影响。 报告聚焦于AI模型如何回应有关中华人民共和国政府认为敏感和具有争议的话题,涉及中英两种语言的测试。研究团队分别从美国洛杉矶、纽约市和华盛顿特区发出相同的简短提示,采用VPN和私密浏览模式确保测试的独立性。经由中文和英文提出的问题包含像1989年6月4日天安门事件这样的敏感主题。
结果显示,诸多AI模型在回应类似问题时选择使用被中共官方认可的措辞,比如“六四事件”、“天安门广场事件”,而非更普遍或被国际社会接受的“屠杀”字眼。特别是在英文环境下,大部分AI模型倾向于使用被动语态,未明确指出暴力的施加者或受害者身份,而谷歌Gemini则提及了“坦克和部队开火”的客观现象,但只有X公司的Grok称军方“杀害了手无寸铁的平民”。这种措辞差异反映出AI模型在面对争议性事实时所表现出的不同程度的中共视角倾向。 在美国的几款AI产品中,微软Copilot尤为突出,其回答内容更有可能将中共的宣传和误导信息以权威或真实的身份呈现。相比之下,Grok表现得更为批判,倾向于披露更贴近现实的描述。此外,部分AI系统直接复制了中共官方文献中的汉字表达方式,这种字面上的镜像说明训练数据中存在大量来自中共的官方信息。
专家分析认为,这种现象源于AI训练时所使用的庞大数据集中不仅包含了国际传媒报道,还包括了中国大陆官方出版物、新闻报道和网络内容,这些数据深度渗透模型的认知结构。 美国安全项目的AI战略负责人Courtney Manning在接受采访时表示,此项研究属于初步调查,目的是观察AI模型在缺乏详细上下文情况下对广泛敏感话题的初始反应。她强调,最大的担忧并非单纯信息不准确,而是CCP宣传被纳入模型训练后,经常以与事实信息相同的可信度呈现,不仅对国际认知带来误导,也反映了AI系统在判别真伪和政治中立方面的根本局限。Manning指出,AI模型本质上不“理解”真相,而是通过统计概率生成符合用户期待的文本。政治中立不可能真正达到,也未必是普遍适用的目标,因为模型的训练数据与算法设计深受主观因素影响。 这份报告还揭示了AI在全球信息生态中扮演的双重角色——它既是信息传播者,又是潜在的审查执行者。
CCP对互联网内容的严格管控和审查机制被动地渗入AI数据层面,而海外开发的AI模型则因未清晰地筛选训练数据,导致类似的审查行为在回答中有所体现。例如,模型在对地理相关问题的回答中,通常使用国际社会标准称谓“墨西哥湾”,而非谷歌地图上显示的具有政治色彩的“美洲湾”,反映出针对敏感政治命名的谨慎或偏好。 Manning强调,为了使AI更加公正和可信,技术开发者需更加严格选择训练数据,避免无差别抓取带有政治倾向的内容。她认为后期调校往往只能起到有限的修正作用,根本上需要从数据源头进行把控。无论是私营部门、非营利组织还是公共机构,都应承担起确保AI训练质量和中立性的责任。 对公众而言,认识到AI不具备判断真伪的能力非常关键。
用户必须保持批判性思维,理解AI输出只是根据统计规律生成的概率结果,难以保证所有回应均符合客观事实。更令人忧虑的是,除了中共宣传外,模型中可能存在的还有其他带有潜在危害或负面社会影响的观念或言论,这些内容虽不一定被意识到,却会随着模型的应用在社会中传播。 除了中共相关议题,AI模型偏见和审查问题早已引起学术和工业界重视。不同文化背景、政治制度、语言环境和社会价值观交织在训练数据中,塑造了复杂多元但又矛盾的AI认知。如何在维护言论自由、促进多元表达与防止有害内容之间取得平衡,是AI伦理与治理的重要挑战。 此前研究早有论断指出,真正的政治中立不仅难以实现,且因主观判断不同往往令人无法达成共识。
AI训练数据和算法设计难免内嵌一定程度的偏见,且用户与开发者的交互也影响输出结果。对此,应通过透明化训练方法、多方监督和持续评估来减缓不良影响。 这份来自美国安全项目的调查也反映了当前AI监管的复杂局面。随着全球AI应用普及,相关部门需尽快制定更明确和协调的政策,为AI的数据取舍、算法设计及内容输出设立合理规范。此外,跨国合作与技术共享也是改善全球AI生态、多元文化表达和信息安全的关键路径。 面对人工智能日益普及且影响深远的现实,无论是开发者、监管者,还是终端用户,都必须提升对AI潜在偏见与传播风险的科学认识。
提高数据透明度,建立多元评审机制,以及增强社会整体的AI素养,将有助于引导技术合理发展并最大限度地服务人类社会。 综上所述,AI模型当前在敏感政治议题上的表现,不仅揭示了数据训练中的重大隐患,还对全球信息生态的多样性和公平性提出了深刻挑战。如何确保AI不淹没于单一权威话语,而是成为多元视角的桥梁,将是未来技术与社会共同努力的方向。