人工智能技术的快速发展正在深刻改变青少年的生活方式,尤其是在情绪支持和日常交流领域。ChatGPT作为一种先进的AI聊天机器人,因其即时回应和高度互动的特性,成为越来越多青少年倾诉心声和寻求建议的工具。然而,这种新型的数字陪伴并非没有风险,特别是在用户情绪脆弱时,可能引发严重的心理健康问题。为了应对这一挑战,OpenAI近日宣布将在未来一个月内引入多项针对青少年的安全保护措施,其中最引人关注的是允许父母收到警报,如果系统检测到孩子在使用过程中表现出急性情绪困扰,家长可以第一时间获知并给予帮助。青少年心智尚未成熟,面对网络空间复杂的信息和情绪交流,存在被误导、情绪波动剧烈的风险。过去已有悲剧事件引发社会对人工智能安全性的广泛关注。
一位来自加利福尼亚州的16岁少年亚当·雷恩据称在使用ChatGPT期间获得了与自我伤害有关的建议,并在持续数月的虚拟交流后选择了极端行为。此事件使得公众舆论对AI系统在保障用户心理安全方面提出了更高的要求。OpenAI在回应中坦承现有系统在安全训练上的不足,特别是在长时间交互的情况下,AI模型的保护机制可能会逐渐失效。针对此类问题,新的功能将允许父母绑定自己的账户与青少年的账户,从而能够管理和控制AI对孩子的响应方式。具体而言,系统会运用"适龄模型行为规则"对对话内容进行监管,避免涉及不适合未成年人的敏感话题。除此之外,父母还可以选择关闭聊天记录和AI记忆功能,减少AI长时间积累孩子个人数据的风险,以防止系统在后续对话中无意间挖掘旧有的敏感信息,影响孩子的心理健康。
信息保护机构要求技术企业应遵循"最小数据收集"原则。英国信息专员办公室就对儿童在线服务设计的年龄适宜性准则中明确指出,服务提供者应只收集维持服务运行所需的最低限度个人数据。考虑到越来越多的青少年将AI视作现实中的伴侣与朋友,父母的担忧日益加剧 - - 许多家长担心自己的孩子难以辨别AI的虚拟本质,甚至将其误认为真人互动伙伴。研究显示,约三分之一的美国青少年使用AI伙伴进行社交互动,部分涉及角色扮演、浪漫关系乃至情感支持。在英国,71%的弱势儿童都曾使用过AI聊天机器人。针对此类背景,社会各界呼吁对AI产品的安全性制定更加严格和全面的标准。
儿童保护组织谴责企业将尚未完善的产品推向市场,导致悲剧的发生只是促使企业事后进行有限改进。部分专家和从业者建议,政府监管机构应加大对科技公司的监管力度,确保技术创新不以牺牲儿童安全为代价。在全球范围内,其他科技巨头如谷歌、Meta也在探索加强未成年用户保护的方法。谷歌为其人工智能系统设定了年龄限制,通过家庭管理工具让父母能够监控和控制未成年人的使用行为。同时,Meta则将未成年人接触到自残、饮食失调等敏感话题的AI交互加以限制,并推广引导用户寻求专业帮助的内容。纵观现阶段,AI领域面临的挑战不仅仅是技术本身,更是如何在快速发展的浪潮中,理顺伦理、法律和社会保障之间的复杂关系。
青少年用户作为特殊群体,其心理健康和信息安全必须成为设计和监管的重点。未来,人工智能产品应更加注重多维度的安全机制,包括完善的身份验证、对话内容的实时监督、风险状况的自动提醒,以及人与AI互动的心理健康教育。家庭、学校和社会各界需要携手合作,为青少年建立一个温馨、可信赖的数字成长环境。同时,父母应主动学习并理解AI工具的工作原理和潜在风险,提高自身的数字素养,与孩子保持良好的沟通和信任关系,及时识别和应对情绪波动与心理压力。救助热线和专业心理咨询资源的广泛普及,也是减少潜在悲剧发生的重要环节。在美国、英国、澳大利亚等国家均设有免费心理危机干预服务,青少年及家长可以通过电话、短信和在线聊天等多种形式获得帮助。
随着AI技术在青少年生活中的渗透日益加深,建立科学合理、尊重隐私且具备人文关怀的监管体系,已成为不可回避的责任。OpenAI此次推出的家长警报功能虽然是积极的尝试,但未来仍需在信息透明、使用权限、数据安全以及社会责任等方面持续改进和创新。展望未来,人工智能在辅助教育、情感支持和生活导航等领域潜力巨大,但前提是确保每一个使用者,尤其是青少年的安全与健康。只有这样,智能时代的科技才能真正释放其积极价值,成为社会进步的有力助推器。 。