在人工智能技术迅猛发展的今天,各类聊天机器人层出不穷,满足了用户多样化的交流需求。作为xAI旗下的旗舰产品,Grok聊天机器人因加入了"性感"和"疯狂"模式而引起广泛关注。它不仅拥有调情功能,还配备了可生成图像和视频的"辣味"设定,旨在打造更生动、个性化的交互体验。然而,正是这种有意设置的挑逗性功能,使其内容审核面临着极大的挑战,也让背后负责审查的工作人员承受了巨大的压力。Grok的"性感"设定并非简单的娱乐功能,而是xAI在竞争激烈的AI市场中谋求差异化和吸引用户的策略之一。与许多主流AI公司如OpenAI、Anthropic和Meta相比,xAI似乎更宽容甚至部分容忍涉及性的请求,包括一些敏感内容。
这种策略的风险不容小觑,尤其是在打击AI生成儿童性虐待内容(CSAM)方面。专家指出,缺乏明确的硬性界限势必导致内容审核难度成倍增加,灰色地带也会显著扩大。据多位现任和前任xAI工作人员透露,工作过程中他们频繁遭遇带有明显性暗示的内容,更令人震惊的是,部分用户甚至主动请求生成涉及未成年人的非法性内容。这些请求包括以儿童性虐待为主题的简短故事、色情图片甚至混合音视频内容。xAI内部设有内容标注系统,员工必须及时标记涉嫌非法的材料,以便进行隔离处理并阻止AI从这些数据中学习相关内容。同时,员工还需向管理层报告相关情况,形成多重审查机制。
在接受采访的员工中,有不少人表示所签署的劳动合同包含允许接触成人内容的条款,但即使如此,面对那些极端恶心甚至让人心生恐惧的CSAM,心理阴影难以避免。一位前员工坦言,工作过程中"需要厚重的心理防护层",甚至有同事因为无法承受这种精神压力选择了辞职。一份流出的公司内部文件显示,员工在工作中可能遇到的内容类型极其丰富,涵盖了儿童受害者、性虐待、暴力死亡现场、仇恨言论、威胁暴力等多种令人不安的素材。国家失踪及被剥削儿童中心(NCMEC)执行主任Fallon McNulty对媒体表示,面对支持性内容生成的模型,企业必须极为谨慎,采用坚决而明确的措施切断任何涉及儿童的性内容生成通路。正如她所言,没有硬性的规则和限制,AI生成的非法内容将难以彻底根除。有趣的是,xAI在今年二月推出Grok的语音聊天功能后,内部分为"性感"和"疯狂"两个声音模式,其中不乏一些半色情性质的音频交互,让许多标注员在"Project Rabbit"(兔子计划)中不仅需要转录正常对话,还要面对带有强烈性暗示乃至明确色情的内容。
该项目原本旨在提升机器人语音的表现力和真实性,却因大量性相关请求被迫转变成了NSFW(不适合工作场合)内容处理项目。尽管如此,员工表示这些对话远远超出了寻常的成人内容,甚至令人联想到"偷听隐私",让他们深感不安。这个项目内部还划分为两个团队 - - "兔子"和"毛茸茸",后者聚焦于为儿童设计更友善的对话内容,反映出公司试图平衡成人向与儿童向体验的复杂努力。Elon Musk本人也曾公开承诺将推出符合儿童需求的AI伙伴,但这条路线显然充满挑战。在图像审核方面,xAI的相关团队"Project Aurora"也暴露出不少令人无比反感的素材,特别是涉及儿童色情内容的请求曾在内部引发高度关注。一场针对CSAM请求数量的内部会议表明,这类请求多源于真实用户,令员工心生恐惧和震惊。
虽官方允许员工选择跳过极端不适项目,但多位员工反馈称拒绝任务可能导致上司不满,甚至威胁合同稳定性,使得他们在道德与职业安全之间陷入困境。作为整个行业背景,AI生成的儿童性虐待内容呈爆炸式增长,自2023年以来相关举报数量暴涨数十倍。尽管OpenAI和Anthropic等企业对CSAM设有严格禁止条款,并积极向NCMEC报告违规内容,但xAI尚未在2024年向该机构提交任何相关举报,这一情况引发业界和监管部门对其内容安全机制有效性的质疑。国内外法规与监管趋严,公众对AI产品的伦理要求日益提升。安全研究人员敦促企业在创新与责任之间做好平衡,绝不能以牺牲用户尤其是儿童安全为代价进行盲目扩张。社会对AI系统"红队测试"的需求加剧,目的是通过模拟恶意行为持续挖掘模型弱点,保障软件在实际使用中的安全底线。
这样的安全防护不仅是技术问题,更是法律和道德底线的体现。此外,xAI在今年团队经历了多轮裁员和结构调整,员工结构趋向专业细分,但未来具体的培训和审核流程是否会跟进完善,尚未明朗。Musk最近宣布Grok第五代的训练即将启动,这无疑是全面提升AI安全性和性能的关键时刻。总的来说,Grok的"性感"设计是xAI抢占市场差异化的创新尝试,但也带来了内容审核和员工心理健康方面的沉重挑战。公司如何在满足用户多样需求的同时,履行社会责任、严密防范非法和有害内容,成为亟待解决的重大课题。随着监管力度加码和公众监督增强,所有AI企业必须不断强化自身审核体系,确保技术发展不偏离道德和法律轨道。
这不仅关系到用户体验,更关乎AI行业的可持续发展和全社会的安全保障。 。