随着人工智能技术的高速发展,AI聊天机器人在日常生活和学习中的应用越来越广泛,尤其受到青少年群体的欢迎。然而,针对未成年人的内容安全和使用风险问题也引发了社会各界的关注。为回应这些担忧并保护青少年的网络使用安全,OpenAI近日宣布即将推出专门针对18岁以下青少年用户的ChatGPT体验版本,并搭载完善的家长监控功能。该举措不仅体现了OpenAI对技术安全责任的重视,也标志着人工智能产业在未成年人保护方面迈出了重要一步。OpenAI计划于2025年9月底正式发布这一针对青少年的ChatGPT版本。新版本将自动识别用户年龄,将未成年人导向一个经过严格内容过滤和安全设计的使用环境中。
这一环境将限制暴力、色情等不适合青少年的信息输出,同时在用户出现极端情绪或紧急危机时,能够在极少数情况下联系执法机构进行干预。为了进一步确保年龄识别的准确性,OpenAI还在积极开发一套技术方案,用于判断用户的年龄信息。在无法核实身份或信息不完整时,该系统将默认用户为未成年人,给予最高级别的保护。此次优化是在美国联邦贸易委员会(FTC)发起针对多家科技公司的调查背景下进行的。FTC聚焦AI聊天机器人可能对儿童和青少年的心理和安全产生的潜在负面影响,要求企业公开其安全评估和应对措施。OpenAI作为行业的领头羊,积极回应了这一监管挑战。
OpenAI首席执行官Sam Altman在相关声明中强调,"在青少年使用人工智能技术时,我们必须将安全放在隐私和自由之前。未成年人需要更严密的保护机制。"他指出,通过与心理健康专家、教育机构及法律界人士广泛沟通,OpenAI设计出了符合社会期望的安全策略。此前,OpenAI也曾分享过关于ChatGPT处理敏感及危机情境的方法,尤其是在一起涉及青少年用户的悲剧性事件后,公司加大了对于涉及自杀风险等极端情况的风险评估和干预机制的开发。即将推出的家长监控工具成为本次版本中的重要亮点。家长可以通过邮箱将自己的账户与孩子的ChatGPT账号关联,灵活设置使用时间段限制,例如"黑名单时间",控制孩子何时不能使用聊天机器人。
家长还可以关闭某些功能模块,引导聊天机器人以更加适合未成年人心理和认知特点的方式进行回答。此外,这些工具将在检测到孩子可能处于急性精神危机时,第一时间向家长发送通知,协助提供及时关怀与干预。OpenAI明确表示,ChatGPT本版本面向年龄13岁及以上用户,体现了对青少年不同成长阶段需求的理解和尊重。尽管如此,企业也坦承保护年龄信息的难度与挑战,强调将持续投入技术优化和社会协作。此举正是人工智能产业承担社会责任的典范。AI技术的发展不仅提升了信息获取的便捷性,也带来了心理健康和伦理安全方面的新课题。
通过对AI聊天机器人的监管和家长监控功能的优化,OpenAI为未成年人的数字安全树立了新的行业标杆。未来,随着技术成熟和社会共识的形成,类似的保护机制将在更多科技产品中普及,构建一个更安全、更健康的网络使用环境。家长和教育者也需积极参与,为青少年正确、安全的AI使用保驾护航。与此同时,监管机构应持续监督和指导AI企业落实未成年人保护措施,推动人工智能产业向更加负责任、合规的方向发展。OpenAI推出专为青少年打造的ChatGPT,不仅是技术创新的成果,也是对社会责任的担当。面对人工智能日益渗透的现实,未成年人数字安全保护成为各方共同关注的焦点。
未来,借助企业、监管机构与家庭三方协作,将更好保障青少年在互联网时代的健康成长,推动人工智能惠及更多人群、发挥更大社会价值。 。