近年来,人工智能技术迅速发展,其应用范围也逐步扩展至军事领域。以色列作为科技创新的先驱,积极将人工智能整合进军事实践中,尤其是在加沙冲突中体现得淋漓尽致。然而,这场被称为"首场人工智能战争"的冲突不仅革新了战争方式,更引发了深刻的人道及伦理问题,尤其是对加沙平民安全和国际法原则的严重挑战。 以色列国防军(IDF)自2019年起启动了由前参谋长Aviv Kochavi领导的目标管理部门,致力于打造和运用人工智能决策辅助系统。这套系统极大提升了目标识别效率,使得月度目标数量跃升至过去一年的数倍。高效的目标生成让以军能快速响应战局变化,进一步强化了其军事打击能力。
然而,在加沙,由于目标定义的含糊与AI算法的限制,人工智能武器和监控技术造成了大量无辜平民伤亡,引发各界广泛关注和批评。 以色列对加沙的AI技术运用并非首次。2021年冲突被以色列称为"第一场人工智能战争",当时相关系统已经开始初步部署。此后,以色列不断展示其"实战检验"的AI武器系统,向欧洲北约盟友推介先进的自动化边境管控技术,并不断升级作战指挥效率。最新一轮冲突爆发后,AI辅助系统在35天内帮助IDF锁定并打击了近15000个目标,创下历史新高。然而,这种极高的打击密度背后是对平民保护机制的严重削弱,国际人权组织警告以色列的AI目标识别可能违反国际人道法,致使大量无辜平民陷入战火。
加沙冲突中,AI项目如"薰衣草"计划,使用机器学习技术基于地理位置、年龄、通信模式等要素为加沙居民打分,判断其是否为武装组织成员。该计划曾在短时间内标记出约3.7万名疑似人员及其住处作为潜在打击目标。然而,判定标准广泛且模糊,导致许多非战斗人员、包括民防人员和警察被误判为作战目标。AI的误差率甚至高达百分之十,带来广泛误伤风险,严重违背了军事行动中区别原则的要求。 另一个引人关注的AI工具"爸爸在哪儿"项目,通过手机定位追踪目标的行踪,定位其归宿以便实施打击。尽管每一个目标理论上都需人工核准,但报道称在实际操作中,人类审批往往被简化为形式性"橡皮图章",审批时间仅有几十秒,严重依赖AI结果判断。
这样的决策流程削弱了人性化判断,导致军事人员渐渐沦为"机器人杀手",加剧了误判和暴力的机械化。 AI系统的另一突出问题是认知偏见和确认偏差。军事人员在使用这些系统时,往往倾向快速接受与自身先入为主立场相符的AI建议,忽视可能存在的偏差和错误。在高压环境下,这种倾向愈发明显,令错误决定频发,平民伤亡惨重。报道指出,以色列在战争初期故意提升了平民死亡容忍度,甚至在某些情况下允许一次打击导致百余人死亡。最终,相关限制几乎被全面取消,令AI在无有效约束条件下大规模促成平民伤亡,暴露出技术进步未必带来战争伦理改善的现实。
与此同时,面部识别技术也被广泛应用于识别哈马斯成员及以军被扣人质。该技术由以色列军方精英情报部门与私人公司合作开发,结合谷歌照片等平台技术。然而,技术的不完善导致大量误判,例如著名巴勒斯坦诗人Mosab Abu Toha因系统误认为哈马斯成员而遭捕。面部识别的错误不仅危及个体安全,也折射出该技术在冲突情境下的巨大风险和数据伦理挑战。 以色列的AI军事技术进步离不开国际科技巨头的支持。谷歌与亚马逊于2021年签署了价值12亿美元的Project Nimbus合同,协助以色列处理和分析海量数据,包括人脸识别、情感分析、生物信息等。
尽管部分公司员工发起"No Tech for Apartheid"运动反对此类合作,企业仍继续支持以色列的军事项目。此外,美国私营企业Palantir为以色列情报部门提供数据分析服务,支持无人机操作及指挥控制系统。其他硅谷公司如Shield AI和Skydio等也不断向以色列输送自主飞行无人机和侦察设备。这种军企联盟关系促使人工智能军事应用迅速升级,但其背后却隐藏着深刻的伦理争议和国际责任问题。 加沙充当了以色列人工智能军事技术的"试验场",其所产生的"战果"和"经验"很可能被不断包装成"实战验证"的全球出口产品。以色列作为世界领先的军火出口国,正积极将包括AI武器及监控系统在内的高科技产品推向全球市场。
这些技术同样适用于专制政权,用于强化监控、镇压异见和控制边缘群体。缺乏有效的国际法规监管,使得全球范围内数字极权主义工具的扩散越来越难以遏制。 随着硅谷、五角大楼和以色列军方之间人才和技术的频繁流动,AI军事技术的扩散速度稳步加快,防御技术和内部镇压工具的界限日益模糊。数字化武器系统不仅带来了战术层面的变革,也深刻影响了政治环境和社会结构。正如大赦国际的专家所强调的,这种缺乏透明度的合作模式让美国科技公司难以追踪其产品的实际用途,增加了对冲突地区平民安全的威胁。 综上所述,加沙冲突不仅是一次惨烈的人道灾难,更是人工智能军事化进程的关键节点。
以色列AI武器和监控系统在战争中造成的破坏,揭示了技术进步与伦理、法律之间错综复杂的矛盾。对国际社会而言,最迫切的挑战是如何制定并实施严格的监管规范,保证AI在军事领域的使用不违背国际人道法,并杜绝其成为暴政和压迫的工具。只有在保障平民生命和基本人权的前提下,技术创新才能真正服务于全球和平与安全。 。