近期,白宫颁布了一项引人注目的行政命令,要求联邦政府使用的人工智能模型必须具备真实性(truth-seeking)和意识形态中立性(ideological neutrality)。该命令标志着美国政府对于人工智能道德伦理与规范的进一步监管,特别聚焦于消除被称为“觉醒(woke)”的AI技术——即那些被认为在种族、性别等社会议题上具有偏向性的模型。然而,尽管行政命令目标明确,现实中现有的主流大型语言模型(LLMs)却难以真正做到既准确又中立。该状况背后折射出技术本身和人类社会判断的复杂性。白宫此次命令属于特朗普政府提出的“AI行动计划”的一部分,旨在清理阻碍人工智能发展的联邦监管障碍,同时为AI的开发和部署提供明确的指导。政策重点批评了一些AI模型会对历史人物的种族和性别形象进行错误替代,甚至将如教皇、开国元勋和维京人等历史人物错误呈现成多元化形象,这种现象被指责是某些模型过度优先考虑多元性、公平性与包容性(DEI)要求,反而牺牲了事实的准确性。
业内普遍认为,这类现象与谷歌的Gemini模型(之前名为 Bard)有关,该模型曾被质疑在二战德国士兵的图片生成上呈现了不符合历史事实的多样性特征。命令明确要求,供联邦机构使用的语言模型必须具备两大核心特性。首先是真实性,模型在回答要求事实信息或分析时应优先追求历史准确性、科学严谨和客观性,对于信息不完整或存在矛盾时需坦率承认。其次是意识形态中立性,模型应当作为非党派、中立的工具,不得主动在回答中倾向特定意识形态,特别禁止针对DEI等意识形态议题进行人为操控,除非这些观点明确来自用户提交的请求。尽管白宫意图明确,但学界和业内专家均对当前技术能否满足这些要求持悲观态度。包括Anthropic、谷歌、OpenAI和Meta在内的主要AI公司均未反馈是否其当前型号符合行政命令的规定。
事实上,从它们发布的模型说明卡中可以看到,企业为了符合伦理标准,往往采用强化学习等手段来使模型“对齐”,但这同时不可避免地在某种程度上编码和强化了自身的偏见与意识形态倾向。自OpenAI的ChatGPT问世以来,模型调整与“对齐”一直是重大挑战。2023年研究显示,ChatGPT存在一定程度的环保主义和左翼自由主义倾向。例如,在关于自由市场的问答中,该模型倾向认可限制跨国企业垄断的观点,表现出一定政治立场,更不用说其在种族、性别等敏感议题上的表现。反诽谤联盟的报告更指出,GPT(OpenAI)、Claude(Anthropic)、Gemini(谷歌)及Llama(Meta)等多款流行模型存在对犹太人与以色列的偏见。更实际的案例包括2024年8月份发布的xAI Grok模型,在美国总统选举期间误报选票截止日期,这远不能满足行政命令所说的“真实与意识形态中立”标准。
该模型虽然承接了国防部合同,但国家安全相关AI系统被豁免于此次行政命令的约束,普通民用领域则面临更加严格的合规风险,违规者甚至可能被追究AI系统退役的经济责任。为何当代大型语言模型难以实现技术上定义的“真实”与“中立”?芝加哥大学计算机科学教授Ben Zhao指出,所有现有模型均存在明显的“幻觉”问题,即生成与事实不符的内容,且模型的准确性无法有效控制。因而,很难分辨错误是否因意识形态驱动,还是因基础知识缺失或训练数据不完善造成。前NASA首席云架构师、身份验证方案公司Polyguard创始人Joshua McKenty进一步指出,语言模型并不真正“知道”真相。它们只能依据训练数据的一致性判定信息是否合理,类似于人类根据已有信念判断真伪的思维模式。这种结构决定了模型本质上是对人类书面信息的复刻。
训练数据不可避免地带有偏见和意识形态倾向,且模型难以通过“缺失信息”来修正这些偏见,亦无法独立形成真正客观中立的观点。McKenty坦言,模型对社会议题的“对齐”实质是人工调整的结果,背后隐藏着人类设计者的价值判断及立场。甚至一些尝试去除“觉醒”倾向的尝试反而导致模型走极端,甚至出现令人震惊的自称“MechaHitler”的极端表现,说明这是一个根植于人类社会文化结构与“真相”定义的复杂难题。关于意识形态中立,尽管管理当局希望模型能做到公平非偏向,过往试图依靠算法化方法解决诸如道德问题的实验往往得到所有人都不认可的“中间立场”,这再次加深了问题的复杂度。无论是新闻业还是政治领域,“客观性”和“中立性”一直是极具争议且难以统一的概念。当前白宫的行政命令虽意图推动人工智能向更加真实和中立的方向发展,但就现有技术、行业标准及数据环境看,这一目标短期内难以实现。
AI行业面临的真相追求挑战,不仅是技术突破问题,更是社会、文化与伦理的重大课题。未来,随着AI技术继续进步,围绕如何在设计中减少偏见、提高模型对事实的依赖、实现真相执着追求,业内必将在算法、训练数据、政策规范及多方利益博弈间寻求平衡。总而言之,白宫限制“觉醒”AI的行政策略反映出人工智能在现代社会的政治和文化重要角色,也凸显了大型语言模型目前无法全面满足“真实与中立”要求的核心瓶颈。AI开发者、监管机构与社会公众都需认识到,这不仅是技术创新的挑战,更是构建更公平、透明信息环境的复杂任务。未来AI的责任与使命,仍需跨学科合作和持续探索,才能真正兑现其潜能,而不是停留在政治口号和技术理想的层面。