英国政府负责福利与养老金的部门(Department for Work and Pensions,简称DWP)最近公布将IBM列为其人工智能战略供应商,合同初始金额为900万英镑,并可能在两次延期后升至最高2700万英镑。DWP将这一框架命名为Nexus AI,旨在支持探索、部署和持续维护各类AI系统与服务,包括短期的"技术实验"(tech spikes)、前瞻性研究(horizon scans)以及概念验证(proofs of concept)。对许多人而言,这一决定本身便带有强烈的讽刺意味:正在帮助失业者重返劳动市场的政府机构,选择与一家大型科技与自动化供应商合作,推动可能改变就业格局的技术。更重要的疑问在于,何种治理、透明和伦理机制能够在福利系统中避免伤害、保护弱势群体并维护公众信任。 从技术采购到公共伦理的交汇点 DWP在其采购公告中强调,采用人工智能的方式应当"以价值为导向、负责任、安全并以人为本",并明确要求供应商在设计与实施时考虑可持续、合规、伦理和法律因素,确保"人在环"参与决策流程。理想情况下,这样的声明为后续项目设定了规范框架。
然而,实际落地远比口号复杂。福利系统的决策往往直接影响到寻求救助者的经济生计和基本生活条件,而算法化管理在全球范围内已经暴露出偏见、透明度不足以及责任归属模糊等问题。 公众担忧并非空穴来风。民间监督组织的研究显示,DWP已大规模扩展算法支持的决策工具,部分模型在没有充分透明与问责的情况下就用于核查与评估申请者。以通用信贷(Universal Credit)相关的"预支款机器学习模型"为例,有研究指出该模型在去年对近百万名受益人进行了"画像",并存在显著的算法偏差风险。面对这种情况,公众与监督机构自然要求更多的信息披露、独立评估以及受影响者的救济途径。
将IBM这样的系统集成商引入,既可能带来技术能力和实施经验,也可能加深公众对"黑箱决策"的担忧,尤其当合同细节、模型逻辑与数据使用未被充分公开时。 人工智能在福利系统中的潜在用途与收益 任何技术都有两面性。在福利与就业服务领域,人工智能确实能带来切实利益。通过智能化的数据分析,政府部门可以更快识别出真正需要帮助的个体,改进资源调配,提高个性化就业辅导的匹配度,减少行政流程中的重复劳动,从而把有限的人力集中用于高价值的面对面支持。例如,AI可以辅助筛查求职者技能与岗位空缺的匹配度,预测某地就业市场的趋势,或在大量咨询请求中自动分流简单问题,提升服务响应速度。若用于检测欺诈或异常申领行为,理论上亦能节省公共资金,增强系统的可持续性。
但这些收益依赖于高质量的数据、透明的算法、充分的偏差检测,以及能让受影响者理解并挑战自动化结果的流程。若忽视这些前提,所谓的效率提升就可能以牺牲公平与信任为代价。 主要风险:偏见、透明度与责任缺位 福利系统中使用AI面临的核心风险有三个方面。首先是数据与模型偏见。历史数据往往反映既有社会不平等,若直接用于训练机器学习模型,系统可能会放大对某些群体的不利待遇。例如,来自低收入社区或少数族裔的申请者,可能因既有记录而被系统错误标记为高风险或低优先级。
其次是透明度不足与无法解释的决策过程。许多深度学习或复杂的预测模型并不易解释,当一个自动化系统决定减少某人的援助或降低优先级时,受影响者需要知道依据是什么、如何上诉,以及如何纠正流水线中的错误。第三是责任归属不清。若算法导致误判或歧视,是由供应商、部门内部的决策者,还是最终部署该系统的官员承担责任?没有清晰的合约与监管框架,追责往往困难,受害者难以获得救济。 法律与合规的要求 在英国,任何涉及个人数据处理的AI系统都必须遵守数据保护法规和相关指导。信息专员办公室(ICO)对自动化决策与数据使用有明确的合规要求,强调数据保护影响评估(DPIA)、透明度、目的限制与最小化原则。
此外,公共部门还受公共部门平等职责(Public Sector Equality Duty)的约束,必须在制定政策和服务时考虑对不同群体的影响。若AI系统有潜在的歧视性后果,未能进行充分的平等影响评估并采取纠正措施,可能引发法律风险与政治风波。 治理建议:从采购到部署的审慎路径 为了尽量降低风险、提升公共信任,应对DWP与IBM合作的项目采取严格的治理机制。采购阶段需要明确伦理与合规条款,将独立审计、模型可解释性、数据最小化以及应对偏差的技术要求写入合同,并设定透明的信息披露义务。合同还应要求第三方独立评估,定期公开影响评估报告和审计结果。部署前应进行充分的试点与用户测试,尤其要吸纳受益人群、社会组织和民间监督团体的反馈,确保设计尊重多元需求并能识别潜在的边缘化效应。
对运行中的模型实施持续监测,包括性能回归、偏差漂移与错误率的实时检测,确保在偏离既定安全阈值时能触发人工复核或暂停自动决策的机制。 透明度与问责机制同样重要。DWP应明确告知公众何时使用人工智能、使用何种类型的数据、模型会如何影响决策,并提供便捷的申诉与人工复审渠道。对关键决策如福利资格判断、经济补助额度等,应当确保"人在环"而非完全自动化执行。技术上可以通过可解释AI工具、模型卡(model cards)与数据卡(data sheets)来公开模型假设、训练数据特性及已知局限。 社区参与与弱势群体保护 真正以人为本的AI实践不能仅停留在口号上,而需把受影响群体纳入设计与评估过程。
在福利政策的自动化过程中,应建立与社区组织、法律援助机构、受益人代表的持续对话机制,让他们能够提前识别潜在伤害并参与缓解措施的制定。对儿童、残疾人、移民等特殊群体,应当采取更严格的数据保护和偏差审查标准。对于任何将直接影响生计与基本权利的自动化功能,应优先采用保守策略:在充分测评与透明度到位前,不宜大规模推广。 技术公司与公共部门的角色分配 将IBM作为战略供应商一方面表明DWP寻求企业级的工程能力、云与系统集成经验,以及在大规模项目中交付的能力。IBM等大型供应商通常在数据治理、企业安全与合规上具备成熟方法,这对复杂的公共服务系统至关重要。另一方面,公共政策的价值判断、对社会公平与权利的保护应由公共部门主导。
供应商的角色应限于提供技术、工具与专业建议,最终决策权与对社会价值取舍的责任应由民主机构承担。合约设计需要避免将政策制定外包给私营技术公司,避免出现"技术决定论"的怪圈。 国际经验与监管趋势 国际上针对公共服务中的AI应用已有许多教训。欧盟在AI监管上提出了风险分级的方法,对高风险系统实施更严格的合规要求,而英国也在数据保护与AI治理领域强化了监管预期。若DWP的项目能够与这些监管趋势接轨,采用高风险系统的合规路径,例如强制的影响评估、独立审计和更高水平的透明公开,将有助于减少法律与声誉风险。借鉴其他国家的经验,应把公众监督、独立评估和透明报告作为标配,而非额外选项。
未来展望:效率与正义能否并行 人工智能在公共福利系统中既有可能成为提升服务质量与资源利用效率的有力工具,也可能在不受控制时放大不平等与不公。DWP与IBM的合作将是检验英国公共部门在数字化转型中是否能够兼顾效率与正义的一个重要案例。关键在于从政策设计、技术实现到监管与公众沟通的全链条治理。若能以严格的法律合规、独立监督、透明公开与社区参与为基石,人工智能或能实实在在地改善服务体验,帮助更多人获得及时与个性化的支持。反之,若只追求短期的成本节约而忽视公平与问责,结果可能是更深的社会信任危机。 结语 在福利与就业服务这样直接关系公民基本权利的领域,技术不是万能答案。
英国DWP选择与IBM合作推进AI项目,既反映了公共部门数字化的现实需要,也暴露了治理与伦理上的挑战。要消解这场决定带来的"讽刺感",不仅需要高质量的技术交付,更需要明确的公共价值导向、严苛的监管与透明的责任体系。唯有如此,人工智能才能在保护弱势群体、提升公共服务效率与维护社会正义之间找到平衡点。 。