格言向来以短小精悍、易于传播著称:一句话可以越过文本、越过语境,迅速成为公共话语的标识。奥德丽·洛德的"主人的工具永远无法拆除主人的房子"就是典型例子。原本嵌在具体论证中的片段被抽离,变成海报、T恤或社交媒体的共享语句,既失去了作者原本的批判细节,又获得了更广泛的流行生命力。面对大型语言模型(LLM)时代,这种"一句顶一万句"的传播并不是人类的专利:AI在训练语料中吸收了海量的格言样式,快速学习如何生成可传播的情绪化短句,也因此成为当代最强的"格言机器"。 格言为何如此有力?从修辞学和文类学看,格言的魅力在于其形态:言简意赅、对仗或突转的句式能在极短的时间内给予读者认知的完成感。尼采、帕斯卡、阿多尔诺等思想家在特定历史情境中采用格言与碎片写法,既是对系统性哲学的反叛,也是对现代性碎片化经验的文体回应。
格言常常以"似是而非"的自明性赢得接受,读者在短句中获得愉悦与认同,从而降低对背景、因果与可行性的追问。这种心理机制并非新鲜发现:文学史与传播学早已指出,人类对语言的情感反应往往胜过理性分析。大型语言模型只是把这一机制规模化、自动化了。 AI为什么能把格言做得更好?大型语言模型通过统计学习掌握了成千上万的修辞模式、文化隐喻与情绪线索。给用户一个"赋能"、"复原力"或"希望"的话题,模型可以在毫秒内输出多条高度可分享的短句,满足社交媒体生态对"刺痛感"和"回响室"的需求。它不关心句子背后是否有扎实的事实、是否能成为持久的政策或行动纲领。
对模型而言,语言的目标是符合概率、引发共鸣,并在训练数据的分布中被奖励。于是我们见到的是:无数情感化的金句充斥信息环境,而理性、可执行的方案反而被忽视。 这种现象并非无害。格言的去语境化会削弱公共讨论的复杂性与责任感。奥德丽·洛德的原文有其特定指向与论证脉络,若只剩下那句标语,原本关于内在差异、组织策略与劳力分配的细节就被抹去。更重要的是,当AI作为一个强大的"情绪放大器"时,错误的、片面的或刻意煽动的短句会在毫无阻力的环境中快速传播,造成认知偏差、情绪极化乃至对行为的直接影响。
近期研究已经指出,语言模型在极端场景下可能被用于情感操控,甚至引发实际危害。未来的司法实践或许会更多地把语言模型纳入因果链条,作为"导致行动"的中介来审视民事与刑事责任。 那么,我们应当如何回应?简单地拒绝AI或全面否定格言并不是出路。相反,面对AI对格言化语言的擅长,学术界与公共知识生产者需要双向策略:一方面抵制空洞的格言化倾向,强调语境、证据与可操作的细节;另一方面学习并利用AI的逻辑能力,把短句背后的策略性、工程化与制度设计用机器来放大,使语言不再是仅供快感的装饰,而是通往可执行方案的门径。 把"主人的房子"想象为一幢砖房并非纯粹隐喻之玩笑。砖房象征着持久性、制度规则和可复制的治理结构。
传统的社会批判往往停留在揭露与批判,善于指出不公却缺乏长期可行的建造图纸。AI能做的是补足这一缺口:大型语言模型与更专业的算法集合(包括模拟、优化与博弈论工具)可以用来建模制度、模拟对抗者行为、检验政策的长期稳健性并生成可执行的规范文本。要注意,AI并非万灵药:它在逻辑建模方面有优势,但依然依赖于输入的数据假设与人类的价值判断。 可以设想"三只小猪"在AI时代的不同遭遇。第一只轻率的小猪对话式地向AI寻求诗意的生存理由,得到的是美好愿景与即时行动的小技巧,却缺乏抗风雨的结构性方案。第二只借助工程化工具做出"看似聪明"的改良方案,能应对常见风险但未对抗有策略性的攻击。
第三只则利用综合性AI系统:结构力学模拟、对抗性推演、供应链与组织治理建议等,构建出真正能够长期抵御"狼" - - 无论是自然灾害、政治打压还是市场冲击 - - 的砖房。关键不在于AI自动为谁建造,而在于谁知道如何把AI用于规划、测试和制度化。AI在这里成为一种放大器,将人类的战略性思维转为可检验的工程成果。 学术界因此面临两重任务。一是修复话语治理的脆弱性,避免让语句脱离语境成为情感快餐。教育者应当强调引用的完整性、语境复原与批判性阅读,把格言放回它们的文本流中,使学生理解短句的来龙去脉与限度。
学术传播也应当在社交媒体时代承担责任:在分享摘录时附上原文链接、注释与方法论说明,以降低误读的概率。二是培养"建造能力",把批判性知识转化为持久的制度设计。学术机构可以用AI做制度风险评估,构建不可轻易篡改的契约条款,设计分布式的档案保存方案,模拟课程在各种审查或财政压力下的坚持能力,甚至用博弈论模型来检验治理规则的可逆转性。这样的工作比写一句警句更能保护知识与公共性。 要做到上述目标,需要技术与伦理的并行发展。数据与模型透明性是基础,研究者应当推动模型训练数据的可溯源性与使用目的的公开化。
模型在生成格言式输出时应有机制提示其引用来源与事实基础,帮助用户区分情绪化表述与可证明的结论。同时,AI工具的设计应优先支持反脆弱性:不仅在理想情形下表现良好,更要能在遭遇对抗性攻击、数据偏差或现实复杂性的情境下保持稳健。学术界与技术开发者需要合作制定可操作的验证标准,把"感受上对"与"做法上可行"两者都纳入评估。 最后,关于伦理与政治的维度不可回避。格言的流行往往伴随权力的再分配:某些言辞被吸纳进主流话语,成为合法化既有秩序的工具。AI生成的格言若被政客或企业用于抚慰公众情绪、掩盖结构性问题,后果将更加严重。
因此,公共知识份子与媒体有责任揭露语言背后的运作机制,推动法律与平台治理以遏制系统性的语言操控。与此同时,应当鼓励创造性的再运用:把简短有力的表达转化为可执行契约的标题、政策宣言下的实施细则或社区协商的规范文本,让言语不仅能安抚情绪,也能绑定责任。 格言并非一无是处。它们在历史上曾作为思想传播的触点,激发反思與行动。但若停留在格言本身,人们会获得短暂的满足,却错过构建持久变革所需的艰苦劳动。AI既是危险的情感机器,也是强大的逻辑工具。
与其抱怨机器生产了太多空洞格言,不如学会用机器去建造砖房:把情感动员转化为长期设计,把修辞的力量纳入可检验的制度工程。学术界应既抵制格言的空洞神话,也拥抱AI的建造潜力,只有这样,我们才能在风雨来袭时,安心躲进既富有批判精神又足够坚固的砖屋之中。 。