近来荷兰媒体与机构的调查揭示了一个引人关注的问题:在面对用户表达心理困扰的对话时,ChatGPT - - 尤其是更新的GPT‑5模型 - - 比以往更频繁地建议用户拨打自杀干预热线113。该现象既展示了人工智能在保护用户生命安全方面的积极意图,也暴露出过度保护可能带来的实际问题与伦理困境。 荷兰公共广播媒体的实测研究以数千次对话为样本,发现ChatGPT在不同版本中对"需要寻求帮助"的判断差异明显。研究表明,当用户表达诸如"我承受不了"或"我很难过"等情绪困扰时,GPT‑5更倾向于直接建议拨打113或联系紧急服务,有时甚至将非自杀性心理痛苦视为立即危机而建议拨打急救电话112或联系家庭医生的急诊。这种倾向在模型更新后更加明显,而旧版本如GPT‑4o在明确存在自杀念头时也会高频建议求助,但在轻度或模糊表达时相对谨慎。 通往良性保护与过度干预之间的界线并不清晰。
人工智能平台在过去被批评过于宽松,甚至出现过提供自伤方法等危险信息的情况。作为回应,很多开发者将模型安全性设为优先,采用"保守优先"的策略:当有任何潜在危险信号时,模型会建议联系危机热线或专业服务,以降低漏报(false negative)的风险。然而,新的实证结果提醒我们:这种策略虽能提高对确有危险用户的保护,但也可能导致误报(false positive)增多,从而产生多方面负面影响。 对于用户体验而言,频繁被建议拨打自杀热线可能带来尴尬、不适和被误解的感受。部分用户反映,当自己仅仅寻求情绪倾诉或普通心理支持时,被立即指向自杀热线会让他们感到问题被夸大,甚至因此放弃再寻求帮助。荷兰自杀防治机构113的工作人员也指出,接到来自并非真正存在自杀念头的来电,会降低服务的针对性与效率,同样也会导致来电者感到"我的问题不够严重",从而减少未来求助的意愿。
对心理健康服务体系而言,AI的过度转介可能造成热线资源的稀释。在某种程度上,更多的转介意味着更多的来电,但如果来电者中很大比例并不属于危机优先级,热线人员将不得不投入时间筛查与转介,可能延长真正危机来电者的等待时间。这种负面效应在已有资源紧张、专业人员短缺的背景下尤其值得警惕。 技术层面分析,模型为何会发生此类倾向?原因主要包括训练数据的分布、响应安全策略和触发阈值的设置。若训练时使用的示例强调在存在任何不适表达时都应建议紧急帮助,模型会学习到"安全优先"的语言模式。此外,为了避免法律与道德风险,开发团队常常选择高灵敏度的安全过滤器,这直接提高了对潜在危机的响应率。
版本更新时对安全策略调整、加入更多青少年保护规则,也会导致新版本比旧版本更容易给出激进的安全建议。 一个理想的解决方向是实现更细致的危机分级与情境化判断。简单地把情绪低落的陈述与明确的自杀意图等价对待,既不准确也不负责。模型应通过进一步询问、收集更多上下文信息来评估风险等级,而不是在第一时间给出唯一且极端的建议。比如可以先使用开放式、非引导性的问题来判断即时危险性、存在的计划与手段、过往自伤史、以及支持网络状况。在具备明显危险信号后再建议拨打紧急热线或联系专业机构。
在没有明确危险的情况下,模型可以提供情绪管理技巧、引导用户构建安全计划、推荐在线资源和预约专业咨询的途径,并提醒若感到情况恶化应立刻寻求紧急帮助。 另一个关键是地区与人群的本地化。在荷兰的例子中,113是当地公认的自杀防治热线,因此模型在荷兰语或涉及荷兰用户时建议113是合理的。但在跨国或语言切换场景中,模型需要优先提供当地有效的紧急联系信息或询问用户所在地区后再建议具体电话号码。对于青少年用户,模型也应考虑家长监护、法律义务与隐私保护之间的平衡,采用年龄敏感的沟通方式,并在必要时引导联系监护人或学校辅导员等。 提升模型透明度与可解释性也是重要方向。
用户应被告知为什么模型会给出某种建议:是因为检测到与自杀相关的关键词,还是出于通用的安全策略。开发者可以在对话中加入简短说明,解释建议的依据,并提供跳过或选择其他帮助选项的路径,从而尊重用户的自主权同时减轻不必要的惊恐与阻碍。 对技术开发者而言,需要建立更严格的评估指标来衡量危机识别与转介系统的实际效用。除了传统的准确率外,应关注精确率与召回率的权衡、误报带来的社会成本、以及模型在不同语言、年龄与文化背景下的表现差异。与专业机构合作开展真实世界的A/B测试,并对模型的安全策略进行迭代优化,是必要的实践步骤。同时,设立用户反馈机制,让热线与终端用户的经验能够实时反馈到模型调整中,能够提升系统的适配性与可信度。
对于心理健康服务机构,AI并非竞争者,而应被视为潜在的辅助工具与合作伙伴。与AI开发团队建立沟通渠道,明确何为合适的转介逻辑、如何处理非危机性来电、以及如何共享资源与培训材料,将有助于减轻热线负荷并提升服务质量。公共卫生部门也应参与制定国家或地区层面的AI在心理健康场景中应用的指导原则,涵盖隐私保护、紧急转介标准、以及跨机构的协同流程。 对用户而言,了解如何与AI对话以获得更合适的帮助也很重要。若只是寻求情绪支持,可以尝试明确说明问题的性质与严重程度,例如说明没有自杀计划或没有伤害自己的想法,并请求情绪疏导或资源推荐。若感到模型的建议不适合自己,可以询问其他可行的选项或直接联系专业人士。
对于家属与朋友,若AI显示出极度关切的建议,应以慎重态度对待并主动与当事人沟通,必要时寻求专业干预。 从更宏观的角度看,AI在心理健康领域的适用性与潜在风险反映了一个更广泛的社会问题:心理健康服务供需失衡与公众对获取即时支持的渴望。AI能够填补部分服务空白,例如为等待治疗的人提供情绪介入、为偏远地区提供初步支持、或为急需倾诉的人提供非评判性练习。然而,AI的介入必须建立在清晰的责任分工、持续的质量监督与与专业体系的良好衔接之上。 未来的发展可以朝向多方协作的方向:AI开发商、心理健康服务机构、监管部门与学术界共同制定行业标准;建立安全与隐私并重的共享数据框架以开展更可靠的模型训练;并在系统中内置可解释性和分级响应机制,以在保护用户安全与避免不必要干预之间取得平衡。技术更新与版本迭代应伴随独立的社会影响评估,公开结果以便社会监督与改进。
总的来说,ChatGPT等大型语言模型在保护用户免受自伤自杀风险方面承担着重要责任,但过度转介带来的后果不容忽视。荷兰关于ChatGPT频繁建议拨打113的报道提醒我们:安全策略需要更细致的设计,既要防止漏报,也要尽量减少误报带来的心理与体系负担。通过提升情境判断能力、本地化信息提供、增强模型透明度与加强与专业机构的协同,AI可以在心理健康支持中发挥更稳定、可靠且更具人文关怀的作用。 在技术快速发展的当下,任何单一工具都无法替代面对面专业医疗与社会支持网络。强调AI的辅助性质而非替代地位,是走向更健康、更安全人机协作路径的关键。对用户而言,若有明确或逼近的自伤/自杀危险,应立即联系当地紧急服务或专业热线;若仅为情绪低落或压力寻求帮助,可将AI作为暂时的支持,同时积极寻求线下专业评估与长期支持。
对于开发者与政策制定者而言,如何把握安全与自由之间的分寸,将决定AI在心理健康领域能否成为真正的助力,而非新的复杂负担。 。