近年人工智能工具在职场的渗透速度惊人,从自动生成邮件、报告到代码与演示文稿,AI被寄予提高效率与创新的厚望。然而斯坦福大学社交媒体实验室与行为研究机构BetterUp Labs的一项持续调查提醒我们:过度或不当使用生成式AI,正在催生一种新的职场问题 - - 被研究者称作"workslop"的AI生成低质内容。所谓workslop指的是那些表面看似完整、语气流畅但缺乏事实依据、可操作信息稀薄或存在"幻觉"的材料,需要同事额外投入时间去核对、整理和改写,反而消耗团队资源与信任。 研究的早期结果令人警醒:近四成的美国员工在过去一个月内遭遇过workslop,每位员工每月因此付出的平均生产力损失估算约为186美元。这一数字并非抽象统计,它代表的是人力反复清理错误信息、澄清模糊表达、补充缺失事实的时间成本。与此同时,超过一半的受访者表示收到此类内容会感到烦躁,三分之一感到困惑,近四分之一表示被冒犯;更重要的是,收件人往往因此降低对发件人的信任度,认为其不够用心或能力不足。
造成workslop泛滥的因素复杂且相互作用。首先,很多员工缺乏必要的AI使用规范与技能,简单复制粘贴或直接转发AI生成文本成为寻常做法。错误的提示词或对模型能力的误判往往产生输出中的事实错误或虚构数据,也就是常说的"幻觉"问题。其次,组织在推广AI工具时,常以节省时间和提高效率为口号,却没有同步建立审查流程、质量标准和责任归属,导致"先交差再修正"的文化蔓延。再次,部分企业通过硬性要求员工使用AI以提升产能或作为绩效考核标准,这种压力反而诱发了快捷但低质的产出。 这种现象并非孤立个案。
英国政府在引入Microsoft 365 Copilot的试点中未观察到明显的生产力提升,麻省理工学院的相关研究也指出约95%的组织难以在生成式AI投资上看到可衡量的回报。与此同时,安全与合规风险也在同步上升:员工不当将敏感信息粘贴到未经授权的AI工具中,可能引发数据泄露与知识产权问题,增加法律与监管风险。 对企业管理者而言,workslop既是效率陷阱也是信任危机。它侵蚀团队对信息质量的预期,拉低沟通效率,并在组织内部形成额外的"去噪"负担。面对这种局面,应对策略既要务实也要系统化。首先需要建立清晰的AI使用政策,明确哪些工具被批准、哪些数据可以用于外部模型、输出需要怎样的标注与审查。
政策应覆盖数据保护、知识产权、外部工具白名单以及生成内容的责任归属。 其次,加强员工培训与能力建设至关重要。培训内容应涵盖基本的prompt工程技巧、如何验证模型输出、识别幻觉与不实信息的方法、以及在什么场景下AI仅能作为草稿或辅助工具而非最终交付物。通过案例演练让员工理解低质AI产出会带来的实际后果,从而提升其在生成后主动审校与修订的意识。 第三,构建"人机协同"的工作流程。将AI定位为初稿生成器或信息汇总工具,并在流程中设置必须的人工复核环节,明确谁负责审校、何种类型的输出需要专家把关、以及可接受的错误率。
对高风险内容如法律、财务或客户承诺,应要求经过合规或相应职能审批后方可发布。 技术上可以引入质量控制与内容可追溯性措施。例如在企业内部部署受控模型或采用私有化的AI服务,以避免敏感数据流入公共平台。为AI输出添加元数据标签,标注其生成时间、所用模型和提示模板,便于审计与问题追踪。结合数据泄露防护(DLP)与日志审计,可以在源头阻断将敏感文本粘贴到未授权工具的行为。 此外,实行输出分级与标识制度有助于管理预期。
对AI生成的初稿应在文首或邮件中明确标注为"AI辅助草稿",并附上简短说明:生成依据、未验证信息的地方以及建议的核查步骤。透明化生成过程能降低误解与信任损失,也让收件人更清楚如何处理这些内容。 领导层的示范作用不可或缺。如果管理者率先遵守AI使用规范、在关键沟通中坚持人工复核而非直接使用生成文本,一方面能树立标准,另一方面能消除"大家都这么做"的从众心态。人力资源与绩效管理系统也应避免将简单使用AI作为衡量工作效率的直接指标,而应关注结果质量与客户价值。 对技术团队而言,提供安全、可控且易用的AI平台是减少workslop的基础设施工作。
集中采购或搭建企业级AIGC平台,可以在预置合规模板、提示库与输出校验规则的同时,降低员工自行寻找各种外部工具带来的风险。平台应支持版本管理、模板共享与内置的查证工具(如自动事实核查接口或数据库比对),从而把部分质量控制自动化。 从文化角度看,抵制"懒惰生成文化"需要长期投入。应鼓励员工把AI视为扩展能力而非替代思考,奖励那些善于把AI产出打磨成高质量成果的实践者,而不是仅以"使用次数"来衡量贡献。建立内部分享机制,让各团队交流有效的提示模板、审校流程与典型错误,能快速提升组织整体能力。 对于中小企业或初创公司,资源有限但风险同样存在。
优先采取的措施应是确定受控工具清单、强调不要将敏感数据提交到公共模型、为关键岗位设立人工复核义务。长期来看,可通过外包或与供应商合作,获取合规且行业定制化的AI服务。 最终的衡量标准不应仅是员工是否使用了AI,而是AI是否真正带来了更高质量、更快的决策与更低的整体成本。企业可以从几个维度来建立评估指标:人工复核所需的平均时间、因AI错误引发的返工次数、客户满意度变化以及合规事件的数量。通过持续监测这些指标,可以判断治理措施是否有效并不断优化。 当然,不应对AI的前景过度悲观。
生成式AI在适当管控下仍能成为提升创意产出、加速文本撰写、自动化重复性任务和提供决策支持的强大工具。关键在于把AI放在正确的位置,理解其局限,并用制度与技术手段将风险降到可接受范围内。 如果企业能够在早期就建立起合适的规范与文化,把AI作为"草稿助手"和信息整理者而不是最终裁决者,便可以享受到工具带来的效率红利,同时避免workslop带来的成本与信任侵蚀。反之,任由AI生成的低质量内容在组织内部传播,将可能造成长期的信任缺失、生产力倒退和合规风险上升。 人才与技术的结合决定未来职场竞争力。面向未来,企业的挑战不只是部署更多AI,而是教会人们如何与AI共事:如何提出好提示、如何辨别并校正模型输出、如何把AI生成的雏形打磨成能被客户与同事信任的成果。
那些能把治理、培训与技术平台结合起来的组织,将在避免workslop的同时,收获真正可持续的AI价值。 。