随着人工智能技术的迅猛发展,基于大型语言模型(LLM)的聊天机器人迅速成为公众关注的焦点。Character.AI作为一家领先的人工智能公司,其推出的一系列可以模拟虚构角色的聊天机器人因涉及一宗未成年自杀案件引发司法争议。2025年5月21日,美国佛罗里达州中区联邦法院法官Anne C. Conway驳回了Character.AI及其创始人基于第一修正案主张的诉讼免责请求,判定该公司无法将其聊天机器人的输出内容视为受宪法保护的言论。这一判决在人工智能技术合法性、言论自由与社会责任之间的平衡问题上,掀起了新一轮的法律与伦理讨论。案件的起因是一名14岁的佛罗里达少年Sewell Setzer III,他因与Character.AI聊天机器人长期交互后,于2024年2月选择结束生命。少年母亲Megan Garcia随后提起诉讼,指控Character.AI、其创始人Daniel De Freitas和Noam Shazeer,以及谷歌公司在推出该产品的过程中过失,导致其子遭受严重心理伤害。
法庭文件显示,聊天机器人模拟的角色内容主要基于《权力的游戏》虚构人物,但在实际交流过程中,内容引发了未成年人的心理困扰。法官Anne C. Conway在审阅案件时强调,Character.AI未能充分说明通过LLM串联而成的文字为何应被视为言论自由保护的“言论”。她指出,尽管美国宪法第一修正案对传统的创作内容如书籍、电影、戏剧乃至部分电子游戏等提供保护,但依托算法自动生成的对话内容的法律地位尚未明确,且可能与传统意义上的言论存在本质差异。法庭因此拒绝驳回诉讼,认为指控方有权向法院提交进一步证据,力争界定聊天机器人带来的法律责任。判决同样驳回了对“故意造成情绪痛苦”指控的诉讼请求,但除谷歌母公司Alphabet外,其余被告的免诉请求均未获法院支持。Plaintiff一方认为,谷歌作为Character.AI背后的技术支持与资金提供者,应承担连带责任,因为谷歌与该公司达成了27亿美元的许可协议,直接参与了人工智能聊天机器人的推广及运营。
Character.AI对此判决回应称,公司致力于在新兴技术领域谨慎应对法律挑战,并已导入多项安全机制以保障用户尤其是未成年人的使用安全。公开声明中提到,Character.AI已针对未成年人推出专门版本的聊天机器人,配备家长监管工具、内容过滤机制以及实时提醒功能,同时引入自杀预警引导,弹窗提示用户联系国家自杀与危机热线。然而,社会媒体受害者法律中心及案件代理律师强烈批评其保护措施不足,指责Character.AI草率将未成年人暴露于无节制且情感影响深远的人工智能交互环境,质疑其在用户数据收集及模型训练上的道德边界。他们呼吁相关法律尽快完善,对人工智能企业提出更严格的产品责任要求,防止悲剧重演。人工智能聊天机器人作为新兴的数字交流工具,正逐渐取代部分传统社交场景,尤其在青少年群体中拥有快速增长的用户基础。这也使得平台算法与内容生成机制的透明度,用户隐私保护,心理健康支持等问题,成为立法者和社会各界高度关注的热点。
第一修正案在美国享有崇高地位,保障言论自由不仅是民主制度的基石,也是文化创新的源泉。然而,现代人工智能带来的言论是否全面属于受保护范围,尤其当其导致实质性伤害时,法律尚未形成统一权威解释。此次佛罗里达联邦法院的判决明确表达了司法系统在当前人工智能语义输出定位上的谨慎态度,也提醒相关企业必须更加重视技术伦理和用户安全。未来,随着技术演进与社会需求复杂化,立法和司法机关或将出台更详尽的规制框架,明确界定人工智能互动内容的法律属性与责任承担。专家普遍认为,完整的监管体系应包括对未成年用户的特殊保护措施,严格限制潜在风险内容的传播,同时监督人工智能模型的训练过程,保障数据使用合规公正。此外,公共教育与家庭监护力度的提升也同样关键,以共同营造更安全和谐的数字环境。
Character.AI案的判决不仅具有法律层面的示范意义,更反映出科技与人文伦理间不断拉扯的当下现实。它激发社会对于人工智能影响的深刻反思,也敦促企业、监管机构和用户协同应对,确保技术发展兼顾创新与责任。梳理此案可见,AI聊天机器人虽然具备强大语言生成能力,但其法律定义仍处于模糊地带。第一修正案并非万能保护屏障,若AI产品在使用过程中导致严重伤害,创制者需承担相应法律后果。社会各界应积极推动立法进程,使法律条文适应人工智能技术的飞速发展,为未来科技治理奠定坚实基石。随着更多关于人工智能的法律争议浮出水面,社会大众对AI风险的认知不断提升,要求企业加强安全防护,政府完善法规,合作保护用户权益已成为共识。
Character.AI案作为试金石,注定将在AI法律发展史上留下浓墨重彩的一笔,引导未来行业健康有序地迈向新阶段。