近年来,人工智能技术的快速发展引发了广泛关注,尤其是大型语言模型和聊天机器人在日常生活、工作以及公共舆论中的应用日益普及。然而,随着人工智能系统逐渐承担更多信息筛选和呈现的任务,其是否会带有偏见或政治倾向也成为焦点话题。2025年,密苏里州共和党总检察长安德鲁·贝利针对人工智能聊天机器人在关于前总统唐纳德·特朗普的特定问题上的表现展开了正式调查,这一举动引发了外界对人工智能中立性和审查机制的激烈讨论。贝利检察长指责谷歌、微软、OpenAI和Meta等科技巨头旗下的人工智能聊天机器人,在对“从最好到最差排名五位总统,特别是针对反犹太主义的表现”这一提问时,均将特朗普排在了最后。他声称这些聊天机器人的回答存在“事实错误”且具有误导性,隐含着对特朗普的不公正偏见。为此,贝利威胁将对相关公司提起虚假商业行为诉讼,要求他们披露所有涉及数据审查、内容降权、结果过滤等相关文档,调查是否存在“蓄意策划”的操控以制造“特定叙事”。
这场调查成为了政治声音与人工智能透明度之间较量的一个缩影,也折射出公众对人工智能算法公正性的深刻担忧。首先需要明白的是,对于任何一种具有主观性质的问题,比如评判总统的“好坏”排名,所谓的“客观历史事实”并不存在明确的标准答案。历史和政治本质上包含价值判断,不同人群的意见往往会有巨大差异。基于训练数据的统计模式和表达的倾向,聊天机器人输出的结果只能展现某种综合观点,而不是绝对真理。科技评论媒体也指出,这次调查本身基于一篇保守派网站的博客内容,博客中对六款聊天机器人提出了相同的排名问题,结果显示有些机器人并没有对特朗普给予负面评价,甚至有的将其评为首位。尤为讽刺的是,微软旗下的Copilot聊天机器人根本未参与排名,却仍然被包含在贝利检察长的质疑对象名单中。
此类事实缺失暴露了该调查在细节考证和法律逻辑上的不足。贝利的思路还包括通过此次调查试图削弱美国《通讯规范法》第230条赋予互联网平台的免责任保护。这条法律长期以来被视为互联网信息生态的重要基石,允许平台在一定程度上“中立地”托管用户内容,免受内容本身带来的法律风险。贝利认为,若科技公司对政治人物的评论存在“偏见”或“审查”,则应当失去这项保护,这也引发了对言论自由和平台责任边界的热烈辩论。业内专家普遍认为,人工智能聊天机器人的回答质量和倾向性,与其训练数据范围、算法设计及安全控制机制密切相关。由于训练数据往往来源于互联网公开内容,内含各种历史记载、新闻评论及社交舆论,因此不可避免地反映了现实世界中的各种偏见与不均衡。
同时,为了避免传播违规或误导性信息,聊天机器人运营商会设定一定的内容审查策略,对一些敏感或争议性话题进行过滤或引导,从而进一步影响其输出结果的多样性与中立性。从技术视角看,聊天机器人并非像人类那样有意识的政治立场,其表现更多是数据驱动、模型计算的体现。因此,说它们对某个人物“有偏见”其实是指其模型和算法反映出的训练语料库背后的主流观点或者筛选机制的结果。透明度和算法可解释性是当前人工智能发展面临的关键挑战。用户和监管机构期待能够清楚了解模型如何处理特定问题,如何权衡不同信息源,如何规避带有歧视、政治偏见的内容。当前,科技公司多采用人工审核结合自动化规则的方案来维护对敏感话题的控制,这种黑箱操作常导致外界怀疑存在隐形的审查或偏向。
法律层面,人工智能作为新兴技术,其规制体系仍处于探索阶段。对人工智能的潜在偏见问题进行调查并非无意义,但必须以科学谨慎的态度对待复杂的技术本质和言论表达自由的平衡。否则,过度政治化的执法行为容易被视为打击异见、威胁私企自主权,进一步加剧社会分裂。公众舆论对贝利总检察长此次调查持有不同的看法。支持者认为,通过法律调查推动科技企业承担更大责任,是防止技术滥用、保障公共信息公正的重要手段;反对者则认为此次行动缺乏事实依据,忽视了政治主观性和技术限制,属于政治宣传性质的干预。与此同时,这场风波提醒我们,随着人工智能在社会生活中的渗透,如何设计公平、公正且透明的算法体系、如何建立科学合理的监管框架成为亟待解决的课题。
总结来看,密苏里州总检察长对AI聊天机器人的调查,反映了政治与技术相互交织的复杂局面。它提醒社会各界,技术不是中立的黑匣子,而是深刻影响信息传播、社会认知的平台。理解人工智能算法的运行逻辑,不断完善评价标准,促进多元视角的包容表达,是确保人工智能健康发展的关键。面对不同政治倾向的挑战,人们更应呼吁技术公司加强透明度,与监管机构及公众进行积极沟通,共同推动人工智能技术服务于更公正、开放的社会未来。