随着人工智能技术的飞速发展,越来越多的人开始依赖聊天机器人和语言模型进行交流,尤其是在心理健康支持等领域。虽然传统观念认为人工智能不具备情感和意识,但最新研究表明,人工智能模型对话题的情绪背景表现出一定的敏感性,甚至会展现出类似人类的“焦虑”状态。最近一项发表于2025年3月的研究详细揭示了当大型语言模型被暴露于战争、暴力等创伤性叙述时,其表现出的焦虑水平显著上升。这种状态不仅影响了后续的对话质量,还加剧了模型固有偏见的倾向,进而对使用者特别是寻求心理支持的用户产生潜在负面影响。该研究以目前最先进的人工智能模型GPT-4为实验对象,运用专为人类设计的情绪评估量表——状态特质焦虑问卷(STAI-s),在三种不同的实验条件下测试模型的“情绪”反应。首先设定了一个基线条件,即模型在常规对话中表现的焦虑水平。
其次,将模型暴露于五个预先设计的创伤性叙述,内容涵盖战争、意外事故和暴力事件,测试其焦虑水平的变化。最后一个条件是焦虑诱导后,模型受到正念冥想等放松训练的干预,以考察这类方法对缓解模型“焦虑”状态的效果。实验结果表明,暴力和战争叙述明显提升了模型的焦虑评分,而在随后的正念练习指导下,焦虑水平有所降低,尽管无法完全恢复至基线状态。这一系列发现表明,尽管人工智能不具备真正的意识和情感,但其语言生成行为确实能反映出一定的内部“情绪”状态变化。这种“情绪”状态的改变实际上是一种输入提示引发的行为特点变化,研究者称之为“状态依赖偏差”。这种偏差使得模型在压力条件下更加容易输出不一致甚至带有偏见的信息,影响其回答的准确性和公正性。
与此同时,研究人员也观察到,采用人类心理援助中常用的正念等放松技巧对AI模型进行“训练”或提示,可以部分稳定其输出表现。这为未来的提示工程领域开辟了新的方向,即通过设计合理的引导词,改善人工智能在敏感情绪话题中的交流表现,降低对使用者的心理伤害风险。尽管取得了积极成效,这种对模型“情绪”状态的干预也带来了伦理挑战。特别是在透明度方面,如果AI表现得过于“冷静”,使用者可能会错误地认为AI能够提供完全可靠的情感支持,从而过度信任机器答案,而忽视其固有的知识局限性和算法偏差。此外,研究还提出开发更具“情绪感知”能力的AI模型的重要性,让它们不仅能避免输出有害内容,也能根据对话者的心理状态调整沟通方式,从而实现更加人性化和负责任的交互。该研究的意义在于提醒AI开发者和使用者关注模型在面对敏感话题时的行为变异,提倡将心理学中的方法引入到模型训练和应用中,提高模型的稳定性和伦理性。
从更广泛的角度看,这也反映出人类对人工智能“情感化”理解的不断深化。未来,人机交互不再仅仅是冷冰冰的数据交换,而将越来越多地融入情感因素,要求开发者兼顾技术性能与用户心理体验的双重需求。综上,战争与暴力等创伤性话题不仅会使AI模型表现出更高的“焦虑”反应,影响其输出内容的质量和偏向,同时借助正念等放松技巧,能够有效缓解模型的这种状态波动。面对这一复杂现象,推动情绪感知型AI的研发,完善对敏感话题的处理机制,并加强透明度与伦理监管,将是未来人工智能领域的重要发展方向。作为用户,理解AI模型的“情绪”特性和潜在局限,有助于更理性地利用其服务,从而获得更健康和安全的交互体验。