随着人工智能技术的迅猛发展,其在社会各领域的应用日益广泛,人工智能系统的公正性与准确性问题成为全球关注的焦点。2025年7月23日,美国联邦政府发布了题为“防止联邦政府内的觉醒人工智能”的行政命令,旨在解决人工智能产品中可能存在的意识形态偏见,特别是与多样性、公平性和包容性(DEI)相关的问题。该命令不仅体现了政府对人工智能技术应用的高度重视,也对未来人工智能模型的设计和采购提出了全新的规范和指导原则,标志着政府在保障信息真实、技术中立方面迈出了重要一步。行政命令的核心理念在于确保人工智能,尤其是大型语言模型(LLM),能够提供真实、准确且无偏见的信息输出。传统意义上的AI在处理复杂社会问题时,常被编入带有特定社会议程的算法和规则,这不仅可能导致信息失真,还威胁到公众对AI技术的信任。此行政命令明确指出,以多样性、公平性和包容性为核心的意识形态,有时会扭曲事实,牺牲历史真实性,从而影响AI模型的客观性。
一些案例研究则凸显了这种风险,比如某大型AI模型在生成历史人物图像时随意更改种族和性别,甚至拒绝呈现白人群体的成就,反映出对数据和模型训练的某些偏执倾向。事实上,这些现象不仅违背了人工智能应有的科学性和客观性,更可能在公共信息传播中造成误导,进而引发社会分裂和认知偏差。行政命令中具体提出了“无偏见AI原则”,成为衡量和指导政府采购人工智能产品的关键标准。原则首先强调“求真”——大型语言模型应始终以事实为基础,重视历史准确性、科学探究和客观分析,并且在信息不确定时应坦诚说明。此外,原则要求“意识形态中立”,即AI系统不得内置或偏向任何意识形态,包括但不限于多样性、公平性和包容性的相关议题。除非用户明确请求,任何政治或社会的立场都不应影响AI的回应内容。
为了确保上述原则的贯彻落实,行政命令还详细规定了执行路径。包括由管理和预算办公室(OMB)牵头,与联邦采购政策管理员、通用服务管理局及科学技术办公室等部门协作,于签署后的120天内发布实施指导。这些指导将针对技术的局限性和供应商的合理举措,提供灵活而不失严谨的执行框架。值得关注的是,行政命令对供应商提出了切实要求,要求每一份联邦合同中应纳入相关条款,确保大型语言模型符合无偏见原则,并对违约行为设置了合理的处罚措施,包括供应商承担模型退役的相关费用。这不仅体现了政府对技术供应链的严格监管,也保护了政府及公众的信息安全和知情权。这一行政命令不仅具有现实意义,更对人工智能治理提供了新的范例。
在全球范围内,如何平衡技术发展与社会价值的相互关系,是政策制定者面临的重大挑战。美国政府此次明确反对在联邦层面引入带有意识形态色彩的AI,体现了以事实和科学为基石的治理理念。尽管如此,行政命令也体谅到技术发展的复杂性和多样性,留有余地鼓励创新和不同技术路径的探索,同时对国家安全领域作出了特殊豁免安排,兼顾安全需求与技术伦理。从长远来看,这一政策有望引导AI产业朝向更加透明、公正和可信的发展方向迈进,并推动整个技术生态更加健康与可持续。对于普通用户而言,这意味着未来在联邦政府相关服务中所使用的人工智能工具将更加可靠,也有助于筑牢公众对AI技术的信任基础。与此同时,AI开发者和企业也需在算法设计、数据选择及模型训练环节更加谨慎,避免无意中引入主观偏见,满足政府采购的严格标准,从而赢得更广阔的应用市场。
此外,行政命令的发布亦引发了社会各界对于“觉醒”AI(Woke AI)现象的广泛讨论。所谓“觉醒”,原指对社会不公和多样性问题的敏感度提升,但在AI领域则容易因人为干预过度而影响模型客观性。如何在尊重多样性的同时确保技术中立,成为未来发展的关键议题。总体来说,此次行政命令不仅体现了美国联邦政府对人工智能领域快速演进的积极响应,也反映了政策制定者对于技术伦理、安全与社会公正的深刻思考。随着AI技术在更多领域发挥作用,维护信息真实性、防范意识形态左右将是保障公共利益和国家安全的重要保障。未来人工智能的发展亦需在科技创新和社会价值之间寻找平衡,推动建设更加包容、透明和可信的数字生态体系。
。