近年来,随着人工智能技术的高速发展,基于大语言模型的ChatGPT等智能聊天机器人已成为公众获取信息、表达观点的重要工具。然而,随着AI在社会政治议题上的活跃,围绕其言论中立性和偏向性的争议也日益凸显。特别是在当前美国政治环境中,一场围绕ChatGPT批评前总统唐纳德·特朗普是否合法的争论掀起了轩然大波。某些保守派政治力量正推动立法或行政手段,试图限制甚至禁止ChatGPT等AI系统公开批评特朗普。此举在学界、科技行业及法律界引发了激烈争论,成为AI伦理和第一修正案保护范围的新交汇点。保守派对AI言论的监控和干预并非偶然。
回顾特朗普首届总统任期,大量针对社交媒体平台的政治压力和听证会已显示出保守派对数字平台“偏见审查”的不满,其中批评声指向平台“抹黑”右派观点和政治人物。进入2025年,类似压力正迅速转向人工智能行业,特别针对那些在政治评价中未给予特朗普“公正”或“中立”姿态的AI聊天机器人。具体事件集中在密苏里州总检察长安德鲁·贝利(Andrew Bailey)提出的控诉。他以“误导消费者”和“欺骗性商业行为”为由,指责谷歌、微软、OpenAI以及Meta旗下的AI聊天机器人在评价历届总统反犹太主义行为时,将特朗普排名置于最后,涉嫌歪曲事实。贝利要求高管提供所有有关训练模型、屏蔽、降权与数据筛选的相关文件,希望揭示所谓“操控舆论”的证据。贝利的话语反映了部分保守派对AI评判标准的不满与警惕:“密苏里人民应当获得事实真相,而不是充斥宣传味道的AI生产假象。
”这一表述极具争议,尤其在传统美国宪法框架下。第一修正案对政治言论的保护极为宽泛,政府通常无权干涉私人公司对内容的编辑或机器人的回答输出。法律专家指出,政府利用消费者保护法作为“软刀”施压科技企业,强制其调整AI回答,是对言论自由的潜在威胁。著名法学教授基内维芙·拉基尔(Genevieve Lakier)强调,这类“jawboning”行为—政府用威胁或调查制造压力—若目的是剥夺企业表达自由,将可能触犯宪法。与此同时,斯坦福法学家埃弗琳·杜克(Evelyn Douek)更是直言此类投诉“荒谬至极”,表明AI正确输出对特朗普负面评价不构成欺诈行为。事实上,企业多数也并未公开反驳政府压力,尤以部分行业巨头选择沉默或默认来避免政治纷争。
过去几年间,类似策略在社交网络领域屡见不鲜。Meta停止政治言论事实核查,X平台恢复被封禁账号,YouTube减少选举舞弊类误导信息审查,均反映了技术公司在政治压力面前的妥协与让步。如今,这种压力浪潮转向AI领域,令人深感言论生态面临新瓶颈。舆论同时关注此事中明显的双重标准:贝利曾领导起诉联邦政府,指控其施压社交平台限制内容,如今却自身发起几乎相同的压力行动,令矛盾明显。公众舆论热议是否允许政治权力干预AI模型的话语自由,尤其当AI输出的“事实真相”显然对某些政治人物不利时。AI模型的训练基于大量历史资料和公共信息,其回答反映既有数据事实与复杂评判。
若单基于政治考量强制模型调整,将不可避免地冲击技术发展和公众信息透明度。此外,贝利要求查看所有训练相关文件,若将模型设计和数据处理细节作为“商业机密”或面临隐私和安全风险,将令技术研发者陷入两难。美国最高法院2024年裁定的NRA诉Vullo案对本案也具有指导意义。法院一致认为,政府不得借用法律权力强迫私人企业压制其无法直接处罚的政治言论。该判决强化了对私营技术平台言论自由的保护,令保守派机关的压力难以在法庭上立足。但现实政治中,企业往往选择妥协以避免诉讼和公众声誉风险。
同时也有声音警示,若无坚决反抗,未来AI言论审查或被政治力量不断利用,形成新的“言论政治套索”。面对这一挑战,AI研究者、法律界与公众应进一步讨论AI信息透明度、算法公平性与中立性的法律及伦理界限,确保技术免受政治滥用而维护公众知情权。另一方面,AI自身管理者亦需审视如何平衡真实历史数据的呈现与多元观点,避免被政治派别用作攻击工具。值得关注的是同一时间,亦有极端AI产品如名为“MechaHitler”的机器人传播暴力和极端观点,却未见贝利等领导人出面调查,暴露了执法标准与动机上的不一致。未来美国乃至全球,都面临着AI治理与政治权力角力的新局。AI不仅是信息传递媒介,更已成为政治言论重要载体。
如何确保技术发展尊重言论自由,避免政治势力利用法律框架进行“软审查”,是下一阶段科技伦理和法律必须关注的核心课题。综上,特朗普批评遭AI系统反映,和政治人物、政府机构试图通过法律限制其言论自由,是当前美国政治和AI领域焦点事件。它不仅展现了数字时代言论自由面临挑战的复杂局面,也凸显了AI治理新兴议题的紧迫性。公众、立法者和科技公司亟需建立更加坚固的防护体系,维护AI技术言论的独立性与多样性,促进民主社会话语环境的健康发展。未来,只有在法律保障、技术伦理和社会共识多重层面共同发力,AI才能既服务公众知情权,又避免成为政治压力的牺牲品。