在当今人工智能技术快速发展的时代,谷歌的AI产品如Gemini系列聊天机器人在市场上表现出色,受到广泛关注和应用。然而,鲜为人知的是,这些看似智能的AI系统背后,正有成千上万名"过劳、低薪"的人类员工默默承担着关键的训练和质量把控工作。他们帮助谷歌的AI保持高水准的表现,纠正错误,防止不当内容出现,确保亿万用户获得安全、可靠的服务。然而,这些人工训练师的工作环境、报酬以及心理健康状况却充满了挑战和隐忧。本文将深入揭示这支伴随AI成长的"影子劳动力"以及他们面临的现实困境。 这批人工智能训练师大多是通过承包商公司雇佣的,例如日本的大型跨国公司日立旗下的GlobalLogic,他们的主要任务是对谷歌人工智能产出的回答进行审核和评分。
工作内容不仅包括审查文字信息,还涉及图像、视频等多种内容的质检。与一般的数据标注工作者相比,他们的薪资水平略高,起薪大约每小时16美元到21美元不等,岗位分为普通评分员(generalist raters)和高级评分员(super raters),后者往往具备更专业的知识背景和学历,如教师、摄影师以及物理学博士等。 尽管如此,这些评分员面临的压力却异常巨大。许多评分任务要求他们在极短的时间内完成,原本允许30分钟完成一项任务的时间很快被缩减到10至15分钟,这意味着他们需快速理解复杂内容,如医学、金融和法律等领域的信息,进行准确的事实核查和安全性判断。评审内容不仅涉及正确性,还涵盖敏感话题,如腐败、儿童兵及仇恨言论等,任务的情感负担极重。许多评分员表示,这种高强度工作导致焦虑、恐慌发作甚至心理创伤,而公司却缺乏相应的心理健康支持体系。
更令人震惊的是,这些从业者往往事先对工作内容缺乏透明度,以技术作家Rachel Sawyer为例,当她首次接到这份"写作分析师"的职位时,并未被告知需面对大量极端和令人不适的内容。工作过程中,她逐渐从偶尔审核AI生成的暴力和色情文本,转变为几乎专职处理这类内容,而管理层在入职培训和工作描述中对此守口如瓶。此外,评分流程中存在着信息不对称和频繁变动的审核标准,许多员工无法获得足够的背景信息或具体指导,导致工作中的判断主观性强,且难以保持一致。这种缺乏明确规程和持续调整的环境,让评分员如履薄冰,也影响了评审的质量和公正性。 在评分结果的评定中,社会心理因素同样扮演了重要角色。评分员们经常需要与其他员工对同一案例进行交叉审核,若存在意见分歧,则通过"达成共识"的形式解决。
但这种共识往往受制于更有文化资本或较强表达能力成员的影响,有时较为强势者会"压服"另一方,使评分结果偏离客观判断。巴黎理工学院社会学家Antonio Casilli指出,这种社会动态虽然能提高准确率,但也可能产生偏见和不平等,影响整体评估的科学性。 谷歌对AI安全性的重视虽是业界公认,但在实际操作中,优先级的变动也暴露了商业利益和安全保障之间的紧张关系。2024年5月,谷歌推出的AI Overviews功能旨在为用户提供基于网络信息的简明答案,然而在推出后不久,这一系统出现诸如建议用户用胶水粘贴披萨等荒谬回答,引发公众嘲笑和信任危机。谷歌紧急采取措施,加强人工审核以提升内容质量,但随着商业压力增加,人工审核的时间限制再次收紧,审核标准也趋于宽松。部分原本被禁止的敏感内容,比如某些仇恨言论、色情内容,若非AI原创,则被允许出现,这种"复刻"政策使得AI时常能够重复用户输入的不当言论,令人工评分员不得不在道德和效率之间艰难平衡。
中途情绪枯竭和职业倦怠逐渐侵蚀这批训练师的信心。许多员工坦言,对他们所参与打造的AI产品失去了信任,甚至避免在私人生活中使用这些工具。原因不仅是频繁接触消极内容所带来的心理阴影,还因为他们知道这些系统其实远非"智能"的魔法,而是建立在庞大人力劳作基础之上的"金字塔"模型。德国分布式AI研究所研究员Adio Dinika直言不讳地指出:"AI的智能其实是靠人类智慧支撑的。这些评分员处于中间环节,虽不可或缺却又被埋没,实际上他们既是关键也极其脆弱。" 除了精神压力外,评分员们的就业状况亦不容乐观。
自2025年以来,承担AI评分和内容审核工作的GlobalLogic已开始推行滚动式裁员,人才规模逐步缩减,进一步加剧岗位不稳定感。与谷歌内部的高级工程师相比,这些外包合同工缺乏职业保障与晋升空间,付出的努力和承担的责任未能获得相应认可。这样的工作环境和待遇,使得许多评分员产生迷茫和失望,甚至质疑所从事工作的社会价值。 虽然谷歌和其他科技巨头声称,评分结果只是算法评估中的一环,并非直接影响模型训练,但这些人工审核显然是确保AI产品输出准确、安全和用户友好的重要缓冲。尤其是在面对涉及医学、法律等专业领域和复杂伦理问题时,人工的判断和干预尤为关键。在AI日趋普及的未来,依靠"半人半机"的混合学习模式仍任重道远,而那些"不为人知"的评分员无疑是这场革命中的隐形守护者。
未来,提升这些人力资源的工作环境应成为科技公司和社会关注的重点。更为透明的工作说明、合理的工作节奏、心理健康支持以及职业发展路径将有助于缓解评分员的压力,提高审核质量。此外,技术创新也可以支持更智能的辅助工具,减轻他们的负担,让他们从繁重的机械审核中解放出来,专注于更有创造性和专业性的工作。 谷歌AI的外在智能光环,离不开这支默默无闻、负重前行的人工训练团队。理解并尊重他们的付出,是我们认识和推动AI健康发展的重要一步。唯有在保障人类工作的尊严与安全的基础上,AI技术才能真正实现普惠,走向广阔而美好的未来。
。