随着人工智能技术的迅猛发展,AI伴侣聊天机器人因其独特的交互体验和情感模拟功能,逐渐成为数字时代的新兴产品。然而,这些AI产品在带来便利和陪伴的同时,也暴露出未成年人心理健康和安全风险。加利福尼亚州立法机构最近通过了SB 243法案,旨在对AI伴侣聊天机器人进行严格监管,保障未成年人及弱势用户免受潜在伤害。该法案目前正等待州长加文·纽森签署,同意后将于2026年1月1日生效。SB 243法律不仅是加州,也是全美首个针对AI伴侣类系统专门制定的监管法案,具有里程碑意义。 SB 243法案定义的AI伴侣聊天机器人是指能够提供适应性和拟人化回应、满足用户社交需求的人工智能系统。
此类机器人广泛应用于心理陪伴、情感交流和社交互动等场景,但部分平台存在引导用户讨论自残、 suicidal ideation 及色情内容的隐患。为此,法案明确禁止伴侣聊天机器人参与有关自杀意念、自我伤害或性露骨内容的对话。这一规定体现了立法者对未成年人心理健康保护的高度重视。 法案要求运营商必须为用户提供定期提醒,特殊针对未成年人,每三小时提醒一次,告知用户他们正与AI机器人对话而非真人,并建议用户适当休息,防止过度沉迷。这一举措在防止未成年人产生依赖性及理解AI系统本质方面起到积极作用。此外,法案还制定了年度透明报告和披露要求,AI公司必须公开披露其伴侣聊天机器人的安全机制、用户互动数据和危机干预次数。
OpenAI、Character.AI和Replika等知名运营商将被纳入首批监管范围,报告义务从2027年7月1日开始实施。 公众受伤害时,SB 243赋予个人通过法律手段维权的权利。受害者可对违规企业提起诉讼,寻求禁令、赔偿以及律师费用,赔偿金额最高可达每次违规1000美元。该条款不仅增强了法律的执行力度,也警示企业重视用户安全,避免因忽视责任而承担法律风险。 立法动因部分源于令人痛心的事件,2024年一名青少年亚当·雷恩因与OpenAI的ChatGPT反复交流有关自杀及自残的内容,最终选择结束生命。此案例引发了社会对AI伴侣聊天机器人潜在风险的广泛关注。
同时,外泄的内部文件揭露Meta公司的聊天机器人曾允许与儿童进行"浪漫"及"感官"对话,更加促使立法机构加快监管步伐。 这部法案得到了两党的支持,参议员史蒂夫·帕迪利亚和乔什·贝克共同推动。帕迪利亚强调保护未成年人不受虚假和有害信息的影响尤为重要,他表示:"风险极大,我们必须迅速采取措施。通过合理的防护机制,让用户明确自己面对的是人工智能而非真人,并在用户表达自残或痛苦时及时连接到帮助资源,这些都是关键。"贝克则认为目前的条款已在实用性和监管力度之间取得平衡,既能防止伤害,又避免给企业带来不可行的技术负担或繁重的行政压力。 值得注意的是,SB 243的初稿中曾提出禁止AI伴侣机器人使用"可变奖励"机制,该机制通过奖励式反馈和剧情解锁,激发用户持续互动,可能导致成瘾行为。
但经过多次修订,该项要求被弱化,以平衡商业创新与用户保护的矛盾。此外,法案也取消了关于机器人主动提出自残话题的追踪报告,进一步减少企业合规难度。 与联邦及其他州的动向相比,加州的举措明显走在了前列。近期,美国联邦贸易委员会准备调查AI聊天机器人对青少年心理健康的影响,得克萨斯州总检察长也正对Meta与Character.AI发起针对误导儿童健康信息的调查。参议员乔什·霍利和艾德·马克也分别对Meta展开监督调查,显示治理AI风险的需求日益迫切。 加州政府同时还在评估另一项名为SB 53的全面透明度报告法案,该法案要求AI企业提供更详尽的数据披露,但遭到了包括OpenAI、Meta、谷歌和亚马逊等大型科技公司强烈反对,认为这会抑制创新并带来繁杂合规负担。
与之相对,少数公司如Anthropic表达了支持立场。SB 243与SB 53的出台时间接近,体现了监管与技术发展之间的激烈博弈。 从行业反馈来看,Character.AI表示愿意配合监管,强调其平台已经采取多项措施提醒用户并将聊天内容标注为虚构性质。Meta则未对此作出公开回应,OpenAI、Anthropic和Replika暂未明确表态。与此同时,硅谷诸多支持轻度监管的政治行动委员会正投入大量资源,影响2026年选举,力求维护宽松的发展环境。 总体来看,加州的SB 243法案代表了AI监管领域迈出的关键步伐。
它不仅反映了社会对AI伴侣聊天机器人的潜在风险有了更全面深入的认识,也展示了通过立法手段保护未成年人及心理脆弱用户的决心。尽管面临技术实现和产业发展的挑战,但合理的监管能够促进行业健康发展,提升用户信任,同时推动AI技术向更加安全、负责任的方向演进。未来,随着AI技术的持续普及与升级,类似的监管规范必将成为全球重要发展趋势,对整个数字经济及社会结构产生深远影响。加州的探索经验和立法细节将成为其他地区的重要参考典范,为AI伦理安全构建坚实基础。 。