近年来,人工智能技术在军事领域的应用日益广泛,成为现代战争变革的重要推动力。尤其是在持续升级的以色列和巴勒斯坦冲突中,人工智能不仅提升了战场效率,也带来了前所未有的争议和伦理挑战。'薰衣草',作为以色列军方开发的一款高度复杂的AI目标生成系统,已成为指挥在加沙地带轰炸行动的核心工具。该系统以惊人的速度处理和分析庞大的数据量,自动筛选出数万名涉嫌参与哈马斯和巴勒斯坦伊斯兰圣战组织的民众,列入轰炸目标清单,极大地改变了过去对待军事目标的传统模式。'薰衣草'计划的诞生有迹可循,其灵感源于以色列精英部队8200部队的高级指挥官于2021年以笔名"Brigadier General Y.S."发表的一本著作《人机团队:如何打造协同人类与人工智能的革命性体系》。书中详细描述了一个解决"人类瓶颈"的智能目标生成机器,能在战场中迅速甄别、处理数千目标,为决策者提供即时且广泛的作战选择。
如今,这一理念被以色列军方付诸实战,其具体表现就是'薰衣草'系统。该系统通过大量情报数据训练,分析个人在通讯网络、社交媒体、居住模式等多个维度的"特征",评估其参与恐怖行动的可能性。人工智能以类似危险因素叠加的方式,给加沙约230万人口中每个人赋予1到100的"风险评分"。任何超过预定阈值的个体,都可能被列入空袭杀戮名单。相比传统人工审核,"薰衣草"的效率极高,同时也极具风险。事实上,根据多名以色列情报人员的亲身经历,军方在战争初期近乎完全依赖'薰衣草'生成的杀戮名单,且对人工复核要求极其宽松,仅仅确认目标性别为男性即可批准空袭。
令人震惊的是,该系统在实际运行中误判率大约为10%,其中大量被错误标记的对象往往是普通平民、亲属或非军事工作人员,却未能得到有效辨识和保护。更严重的是,军方倾向于选择目标在家中时予以打击,利用另一个名为"爸爸在哪里"的自动化软件追踪目标何时进入家中。这种策略导致大量家庭成员尤其是妇女和儿童成为空袭的受害者。对廉价"哑弹"的依赖进一步加剧了灾难的规模。为了节省精确制导炸弹,军方通常使用不精确的炸弹轰炸整幢建筑,令平民伤亡和财产损失剧增。甚至有情报人员透露,军方在空袭初期默许每个低级别目标可伴随多达15至20名平民伤亡,这种"宽松"容忍度远超以往任何军事行动,并且在针对高级指挥官的袭击中,杀伤平民数百人的情形也多有发生。
人工智能的应用压缩了战争中的决策时间和层级,使得人类监督几近形同虚设。许多情报官员形容自己在批准轰炸的过程中仅花费极短时间进行"形式核查",某些情况下甚至在预轰炸的几个小时内目标就已离开家中,但这一信息未能被及时更新,导致整座房屋连带误伤无辜家属。种种事实表明,人工智能不仅提高了军事打击的规模,也加剧了非战斗人员的伤亡比例,对战争的法律和伦理底线构成严重挑战。尽管以色列军方多次强调所有攻击均符合国际法标准,且任何空袭前都需进行个案权衡,但相关知情人员和独立调查却显示大量攻击缺乏足够的人为审查,系统性的自动化识别成为了事实上的决策主导。这一切引发了国际社会关于无差别杀伤和战争暴行的广泛谴责。目前,加沙地带的局势因'薰衣草'等人工智能工具的介入变得更加严峻。
平民的逃难和伤亡数量急剧攀升,基础设施被摧毁,数以千计的家庭被毁,地区的稳定前景蒙上阴影。更甚者,军事行动的激烈手段可能在长期内激发更深层次的仇恨,令冲突进一步难以化解。伴随着人工智能技术在军事领域的渗透和普及,'薰衣草'计划暴露出科技与战争的复杂关系。它展现出人工智能带来高效与力量的另一面,同时也揭示了自动化战争模式潜藏的伦理风险和人道灾难。国际社会如何规范AI在战争中的应用、确保平民保护与法律底线不被突破,将成为未来人道主义与全球安全的重要议题。在了解这些背景和事实之后,我们既要关注技术进步的军事意义,也应反思其背后所引发的道德和法律挑战。
无论从人道关怀还是和平构建的角度,"薰衣草"体系的使用警示世界,人工智能虽有潜力革新战争指挥,但若缺少恰当的人类监督与伦理约束,科技的力量可能会被误用,造成惨重代价。未来,以色列与巴勒斯坦地区的和平仍需依靠政治对话、国际合作和司法审判,而非单纯依赖冷冰冰的机器决定人生死。 。