近年来,人工智能技术在政府部门的应用逐渐增多,伴随着数字化转型的浪潮,利用AI工具提升效率、节约成本成为各国政府探索的重要方向。然而,正如特朗普政府时期退伍军人事务部(VA)应用的Doge人工智能工具所展现的那样,AI的引入也伴随着诸多争议与风险。该工具设计之初旨在通过自动化分析识别哪些合同属于“非必要”项目,从而实现对VA庞大合同体系的裁减,但因其技术实现上的不足,以及运作流程的欠缺监管,引发了行业专家和公共舆论的广泛关注。Doge由一名无医疗背景的软件工程师Sahil Lavingia主导开发,他被委派在极短时间内制定评估VA合同的算法。该AI工具采用了过时且成本较低的语言模型,这导致了对合同价值和内容的严重误判。例如,工具错误地将逾千份价值仅3.5万美元的小合同识别为3400万美元的合同,显现出AI在复杂合同解析任务中的巨大局限性。
Lavingia本人也承认代码存在缺陷,即使依靠人工反馈修正错误,依然难以确保全部判定的准确性。更令人担忧的是,该AI选择“吞噬”(MUNCHABLE)目标合同的策略在设计时未充分考虑VA合同体系的复杂性和多样性。AI依据的判定标准过于简单,比如排除与直接患者护理相关合同,但将许多间接支持医疗服务的合同也一并归于“可取消”范畴,导致关键科研项目和护理支持合同被错误地标记为削减对象。这种一刀切式的处理方式忽视了高质量医疗服务背后的系统性支持需求。VA内部员工亦反映合同评审过程缺乏透明度和充分讨论,部分合同筛选后,相关部门仅被允许在极短时间内提交保留理由,甚至有规范限制对理由的字数,使员工感受到极大压力,担忧工作安全。此一操作加剧了工作环境的不稳定性,也使得合同调整过程变得难以追踪和监管。
专家们普遍认为,在如此关键的政府服务领域,依赖设计粗糙的AI工具做出利用人才和资源的大规模决策本身就存在伦理和实际风险。美国宾夕法尼亚大学法学和政治学教授Cary Coglianese百般劝诫政府不应使用未经深入测试的通用大型语言模型(LLM)来决定合同命运,因为这些模型对于复杂任务的准确性远远不够。批评者指出,AI工具带来的虚假“可信答案”可能导致关乎退伍军人生命健康的服务被砍,从而产生无法弥补的负面后果。此外,该AI分析过程中存在的数据错误,与公开数据库信息不符,使得合同估值严重失准。人工智能不能成为程序人员无法解决数据细节的合理借口。在整个项目背景中,特朗普政府的改革目标是大幅缩减VA庞大的人员编制,以配合其政府效率提升理念,但同时批量取消大量合同如何与削减员工形成互补,却未见明晰规划。
VA方面强调取消合同前会经过多层审核,且不会裁撤直接影响退伍军人护理的合同,然而,外部调查显示,这些裁减已对部分医疗和研究服务产生影响。Doge团队曾公开了部分代码,试图借助开源技术促进透明度,这一举动在推动政府数字化公开方面可圈可点,但也可能因此引发安全及隐私顾虑。随技术曝光,一些合同承包商开始主动联系开发者寻求了解裁减逻辑,以便保护自身利益。值得注意的是,Doge AI工具展现出的错误和不足,不仅是技术层面的问题,也是政府在AI应用中缺乏充分准备和专业协同的缩影。缺少医疗和合同管理领域专家的深度参与,配合时间紧迫和压力重重的政治任务,使得工具完善和验证过程严重受限。该事件亦成为公共部门AI伦理和操作规范建设的重要案例,凸显了需要制度化的人机协作和严密的决策审查框架。
面向未来,政府在推广AI辅助决策时,要确保技术方案经过充分测试和迭代,涵盖专业知识注入和多方利益相关者参与。基础数据应尽量准确全面,AI结论应由训练有素的专业人员核查,严防偏差导致公共利益受损。此外,应增强信息公开和沟通机制,以降低因决策透明度不足带来的信任危机。Doge AI工具事件带来的警示,应促使各界深刻反思如何科学合理地将人工智能运用于关键政府职能,确保技术进步真正服务于公共福祉,而非制造更多的不确定性和风险。在全球范围内,政府机构在AI应用中面临的类似挑战并非孤例。从技术选择、算法设计、数据治理到伦理合规,每一步都需要精准把握和平衡。
唯有如此,方能实现数字政府的真正现代化。总结来看,Doge开发的“吞噬”退伍军人事务部合同AI工具,既体现了人工智能在公共管理领域潜力的初探,也暴露了仓促推行技术改革的深层弊端。透过这一案例,我们应当深化对AI与公共政策结合的理解和规范建设,推动建设更加精准、高效和负责任的现代治理体系,为退伍军人和社会带来切实而长远的利益保障。