随着人工智能技术的迅速发展,全球范围内对AI系统训练和内容审核的需求大幅提升。爱尔兰作为技术外包和内容审核的重要基地之一,承担了Meta等科技巨头重要的AI训练任务。然而,近年来从事这些工作的工人们开始发声,揭示了背后不为人知的心理负担和工作环境问题。Meta旗下产品“Llama”人工智能的训练依赖于大量人工制作的提示和内容审核工作,这些任务通常由爱尔兰外包公司Covalen的员工完成。根据调查,许多员工需要长时间撰写极度敏感且心理负担沉重的内容提示,其中包括扮演儿童性虐待者提出不当请求,或模拟自杀自残相关内容以训练AI系统正确识别和应对。面对如此极端的工作内容,不少员工反映产生了严重的心理健康问题,甚至出现首次自残行为。
工人们描述了他们日复一日所见的惨烈暴力画面和儿童性虐待素材,以及必须伪装成施害者或困扰者身份以测试和完善AI回应的艰难过程。这些内容不仅极具创伤性,还导致睡眠障碍和反复的噩梦,长时间接触甚至使曾经正常的思维逐渐扭曲,形成对痛苦和暴力的麻木感。员工们普遍反映,公司的心理支持和培训远远不足以抵消这些工作带来的负面影响。有的同事被错误地期待应对这些内容后能“习惯”甚至“麻木”,这在专业伦理和人道角度引发严重争议。2019年之前,Covalen的内容审核主要针对违规言论和不当内容,但自从AI技术融入工作流程后,内容审核的性质变得更加复杂和折磨人心。特别是Meta政策在某些敏感话题上的持续调整,如降低对部分歧视性言论的限制,更令审核人员难以平衡职责与内心情感。
申请工作时宣传的福利逐渐缩减,诸如免费餐饮的取消亦引发员工不满与抗议。工作节奏加快,任务压力增大,且福利待遇相对低廉,令众多内容审核者逐渐感受到被剥削的困境。据统计, Covalen员工的平均年薪约为2.97万欧元,在高生活成本的环境下生活压力巨大。员工们积极寻求工会支持,希望通过集体谈判争取更合理的工作待遇、充足的心理健康服务以及公平的加班政策。2025年初,超过100名Covalen员工加入了爱尔兰通讯工人工会(CWU),组织健康与安全代表选举,旨在推动工作环境的改善。员工们不仅需要应对浏览创伤性内容的心理创伤,还面临工作信息不透明的问题,常被调动至不同项目而未被提前告知将面对的具体内容类型。
管理层对员工提出的心理压力反映多为敷衍甚至忽视,缺乏有效沟通和援助机制。同时,行政层面对设置心理干预和支持的投入明显不足,企业社会责任和伦理层面的质疑不断增加。长期以来,国际社会对内容审核人员的心理健康关注逐渐升温,如何保护这类“隐形劳动者”,减少职业病风险,已成为科技行业亟待解决的问题。爱尔兰作为外包聚集地的现实,也折射出全球数字经济中的劳动不公和心理健康缺失。作为AI发展的前线国家,爱尔兰的案例对于如何在科技进步与保护工人权益之间寻求平衡提供深刻启示。Meta作为技术巨头,虽声称对外包公司员工有培训和心理支持要求,实地效果却饱受质疑。
工人们呼吁Meta直接雇佣内容审核人员,提供同等待遇与福利,根治外包体系中存在的诸多问题。面对高度敏感和复杂的内容审核任务,科技公司需要承认这种工作对精神健康的巨大挑战,建立完善且人性化的支持体系。同时,监管机构应加强对外包劳务公司的监督,确保工人的基本职业健康安全权益得到保障。公众舆论和媒体调查为推动这一问题的曝光起着关键作用,也促使企业承担更多社会责任。未来,随着AI技术的不断迭代,类似高强度内容审核行为仍将存在。如何减少人工在极端内容中的直接暴露,依赖技术手段辅助筛查,以及优化工作流程,将成为技术与伦理持续探讨的焦点。
爱尔兰Meta人工智能训练工人的声音不仅反映了当前数字经济中劳动者的艰辛,更警醒着整个社会正视新兴行业背后的隐形代价。只有建立起真正以人为本的工作环境,兼顾效率与员工福祉,人工智能领域才能健康、可持续发展。