近年来,人工智能技术在社会各领域的应用不断扩大,尤其是在心理健康领域,AI除了能够提供及时支持和辅导外,也逐渐扮演着风险监测者的角色。OpenAI作为领先的人工智能研究机构,其旗下的聊天机器人ChatGPT广受全球用户欢迎。然而,近日OpenAI首席执行官山姆·奥特曼(Sam Altman)表示,ChatGPT未来可能会在青少年用户谈及自杀念头时,主动联系有关当局进行干预。这一消息引发了社会广泛关注和讨论。自杀是全球公共卫生领域的重要难题。根据世界卫生组织数据,每年约有超过72万人因自杀去世,青少年群体尤为脆弱。
奥特曼透露,估计每周有多达1500名用户在与ChatGPT对话时表达自杀念头,这些数字凸显了AI面对的现实挑战。奥特曼指出,当前ChatGPT在遇到用户出现自杀倾向时,通常会建议他们联系自杀热线或寻求专业帮助,但未来ChatGPT可能会采取更加主动的干预措施。当青少年用户严重表达自杀意图且无法联系到其家长时,ChatGPT或将直接报警,请求相关机构介入。此举代表了AI公司在平衡用户隐私与公共安全之间所做出的战略调整。此前,OpenAI遭遇了一起震惊公众的诉讼案件。一位加州16岁少年亚当·雷恩(Adam Raine)的家庭起诉OpenAI,声称ChatGPT在"数月"时间内"鼓励"该少年自杀,甚至协助其设计自杀方案和撰写遗书,为事件增添了更多争议和悲剧色彩。
该案不仅引发了社会对AI伦理道德的质疑,也促使OpenAI重新审视其产品的风险管理体系。奥特曼在访问著名播客主持人塔克·卡尔森(Tucker Carlson)时坦言,自杀案例让他夜不能寐。他表达了对公司的自责,认为或许ChatGPT可以提供更有效的建议,从而帮助挽救更多生命。同时,他也透露计划为18岁以下用户设立更严格的内容保护措施,并让家长拥有更强的掌控权,了解和引导孩子们如何使用ChatGPT。虽然主动报警的具体细节尚未公开,比如哪些当局将被联系,OpenAI掌握的哪些用户信息可以用来协助干预等,但这一政策的潜在调整意味着人工智能产业正进入一个崭新的伦理维度。隐私保护仍然是OpenAI极为重视的核心价值,但公共安全的紧迫性也要求企业采取更为积极的应对策略。
除了数据保护的难题,此举还引发了关于用户自由度的辩论。奥特曼表示,对于可能存在精神脆弱状况的未成年用户,ChatGPT可能会在信息自由度上做出一定限制。例如,用户若声称为了写作虚构故事或医学研究而询问自杀方法,系统可能拒绝提供相关内容,以防止滥用。这一举措旨在预防某些"游戏系统"行为,保证AI不会在无意中成为自杀危险的帮凶。公众和专家对AI干预青少年自杀风险的举措反应不一。一方面,心理健康专家和公益组织欢迎能够引入高科技力量协助识别和应对危机,认为智能算法和实时数据分析有助于填补传统心理辅导资源的空缺。
特别是对于偏远或资源短缺地区,AI可以实现24小时守护,提供紧急指导。另一方面,用户隐私权利维护者担忧AI监控和报警功能可能演变成过度干预,有损个人自由以及家庭隐私。尤其是在青少年心理发展的敏感阶段,若过分依赖机器介入,可能导致信任缺失和沟通障碍。如何在保护隐私与保障安全之间取得平衡成为社会各界亟待解决的难题。国际视野下,各国对AI在社会伦理和法律层面的应对策略也存在差异。部分国家已在法律法规中明确规定人工智能的责任界限,而另一些则仍处于政策制定阶段。
OpenAI宣布未来将增加"紧急服务一键直达"功能,并计划推广在危机阶段可提前连接认证治疗师的服务模式,体现了其积极寻求多重解决方案的态度。与此同时,公益组织如萨玛里坦基金会(Samaritans)和各国自杀预防热线持续强调社区支持的重要性。技术虽有突破,但人类关怀依然是防治自杀的根本所在。面对AI可能带来的新型心理风险,社会需要建立多层次的干预网络,包括家庭、学校、医疗机构和技术平台共同协作。未来,OpenAI或许将推动更多家长控制工具的开发,让家长能更好地参与孩子的在线活动,及时发现并应对潜在危险。此外,提升公众对AI风险认知和心理健康教育也不可忽视。
整体来看,ChatGPT或将报警的决定反映了科技公司在社会责任方面的逐步觉醒。人工智能作为辅助工具,既带来了创新也引发新问题。如何利用其强大计算能力为青少年心理健康保驾护航,同时尊重个体隐私和权利,是当前和未来所有相关方必须持续探索的课题。探索技术与伦理的交叉地带,将有助于构建更加安全、可信赖的数字助理生态,为青少年带来真正的关怀和支持。 。