近年来,加沙地带的冲突不断升级,伴随着严重的人道主义灾难和广泛的数字信息战争。作为全球最大社交媒体平台的母公司,Meta旗下拥有Facebook、Instagram和WhatsApp,其平台不仅成为信息传播的重要渠道,更在冲突舆论引导中扮演关键角色。2025年9月,7amleh - - 阿拉伯社会媒体促进中心发布了一份重要报告,题为《Meta在加沙种族灭绝期间助长针对巴勒斯坦人的有害内容扩散》,深刻揭示了Meta平台在涉及时局冲突时的内容管理失职和政策偏见。报告明确指出,Meta未能有效防止针对巴勒斯坦人的仇恨言论和暴力煽动,尤其是以希伯来语发布的内容在平台上大量存在,而相反则对巴勒斯坦相关内容施加诸多限制和打压。Meta作为拥有每日活跃用户达33.5亿的社交媒体巨头,在巴勒斯坦数字生态系统中占据核心地位。因此,其内容管理策略直接影响着冲突相关信息的传播及数字空间的安全性。
然而,报告显示,Meta在这场以色列与巴勒斯坦的冲突中,未能执行国际法庭于2024年初发布的临时措施,即防止和惩治公开煽动种族灭绝行为。大量以色列政界人士和政府官员发布的煽动性和去人性化的帖子得以广泛流传,反观巴勒斯坦用户则遭受账户封禁、内容删除及算法冷落等多重不公待遇。此次报告基于定量与定性相结合的研究方法。7or - - 巴勒斯坦数字权利监督机构记录了2023年10月至2025年5月期间超过两千条有害内容案件,结合7amleh自主开发的AI暴力指标系统,2024年仅检测到有超过250万条希伯来语煽动信息。此外,开放资源分析、调查性新闻报道及多次广告测试均表明,Meta的广告系统不仅未对暴力或煽动内容实行严格屏蔽,反而批准这类内容为付费广告,间接获利。这些发现凸显Meta在内容审核上存在严重的算法问责缺失和资源分配优先级问题。
尽管该公司拥有超过4万名内容审核人员,以及2023年高达1349亿美元的收入,但针对希伯来语煽动性内容的治理明显不足。这种不作为不仅反映出Meta缺乏意愿,更暴露出其机构在权衡商业利益与人权责任时的偏颇。7amleh政策经理Jalal Abukhater直言不讳地指出,这种做法体现了系统性的种族歧视,巴勒斯坦人的声音被刻意压制,而虐待和煽动的内容却被纵容发展,Meta因此成为扩大不公与种族歧视的直接推动者。报告强烈呼吁Meta立即加大对希伯来语内容的审核投入,构建公平精准的仇恨言论和煽动识别分类器,并依照联合国商业与人权指导原则,开展充分的人权尽职调查和风险评估。这不仅是商业伦理的要求,更应成为防止数字空间成为暴力帮凶的必要举措。此外,报告呼吁各国政府展开对大型科技企业在种族灭绝及暴力煽动中的潜在共谋调查,建立严格的透明度和责任追究机制,确保企业行为符合国际法律和人权标准。
民间社会也需持续收集证据、保存档案,并加强跨国协作,推动对企业侵权行为的问责。Meta持续忽视希伯来语煽动内容的泛滥问题,乃至通过广告系统变现,已超越道德层面的失责,构成了对巴勒斯坦群体严重权利侵害的直接共谋。这要求全球社会不仅对Meta施加压力,更应在法律、政策层面设定新规则,阻止数字媒体在冲突和暴力中成为助长者。今年以来的加沙冲突令人关注信息传播对现实局势的影响,社交平台的算法如何优先推荐内容,监管不力导致仇恨信息快速流传,增加了社会分裂和矛盾升级的风险。Meta作为拥有全球最庞大用户群的公司,其行为无疑具有示范效应和重要影响力。该公司的不作为提醒我们,数字空间治理不仅是技术问题,更是政治和伦理的考量。
平衡言论自由、防止仇恨加剧和平保护用户人权,是面临的巨大挑战。未来,平台在内容审核中必须更加透明,公众和第三方监督机构需拥有更多参与权限,以弥补内部治理盲区。只有当社交媒体公司承担起相应职责,确保信息传播不被滥用为暴力工具,才能为冲突地区的和平创造良好条件。综合分析来看,Meta在加沙种族灭绝期间的内容管理失误揭示了数字生态系统中突出的结构性歧视和资本驱动下的伦理困境。国际社会亟需合作推动技术、法律和政策的多方改革,防止数字平台成为制造仇恨和分裂的新战场。唯有如此,才能真正尊重和保护处于冲突中的脆弱群体,防止数字信息化为现实暴力提供助力。
7amleh的报告为我们提供了宝贵的实证材料和思考基点,提醒全社会关注网络空间的权力和正义问题,在数字时代重新界定企业责任和人权保障的边界。Meta事件不仅是技术管理的缺陷,也是全球价值观博弈的重要缩影,值得学界、监管者和公众共同深入审视与行动。 。