近期,以色列和伊朗之间的冲突激化,随之席卷全球网络的是一场空前的人工智能(AI)虚假信息浪潮。自2025年6月13日以色列对伊朗实施空袭以来,数以百万计的伪造视频、图片和消息在各种社交平台广泛传播。这些内容由AI技术生成,旨在夸大伊朗的军事反应能力及其对以色列的打击效果,同时也有支持以色列方的账号发布误导性信息,声称伊朗国内爆发大规模反政府运动,支持以色列的军事行动。 这种虚假信息不仅数量庞大,而且传播速度极快,其影响远超传统谣言。BBC Verify的调查数据显示,三条最受关注的假视频累计观看量超过1亿次。AI生成的影像使验证变得格外困难,尤其是在夜晚场景中,画面细节因技术限制存在模糊和不自然之处,但普通用户难以分辨真假。
AI驱动的图像和视频甚至展示了所谓击落以色列最新型F-35战机的虚假镜头,制造出伊朗军力强大、以色列防御脆弱的假象。 这种现象体现了现代数字战的一个新趋势,即生成式人工智能在冲突信息战中的大规模应用。分析机构Get Real的首席调查官埃马纽埃尔·萨利巴指出,这是首次见到生成式AI在军事冲突中被广泛利用。制造和传播者通过伪造画面制造恐慌、误导公众认知,借助内容的煽动性和视觉冲击吸引流量和关注。部分账号被称为“超级传播者”,在不到一周时间内粉丝数翻倍,显示出极高的吸引力和扩散能力。 这种虚假内容不仅由匿名或身份不明的账户发布,国家相关媒体也参与其中。
伊朗官方媒体发布过假的空袭视频和击毁F-35的图像,以色列国防军发布的部分视频则被证实为过时素材。社交平台X(原Twitter)和TikTok是这些内容的主要传播渠道,且一些AI聊天机器人因缺乏有效鉴别能力,反而加剧了虚假信息的混淆。比如X上的AI聊天助手Grok曾错误确认多条AI视频的真实性,引发公众对平台人工智能审核机制的质疑。 TikTok方面宣称严格执行社区准则,联合独立事实核查机构打击虚假内容,但面对AI生成内容的复杂性,依然存在识别和管控难题。Instagram母公司Meta则未对此次信息浪潮作出公开回应。社会学研究者认为,冲突带来的高度政治极化和二元对立加剧了信息传播中的主观偏见,用户倾向于转发符合自己立场、情绪激烈的内容,降低了理性辨别的能力。
此种情况下,假消息往往通过共鸣效应迅速扩散。 虚假信息在此次冲突中的主要类型涵盖制造“军事胜利”假象、虚构对手军队被重创、伪造民众支持声明,以及宣称外国势力即将介入等。尤其是与美国隐秘核设施、B-2隐形轰炸机相关的AI假图像,成为热点话题,反映出公众对未来局势的不安和猜测。俄方影响力网络也被指利用这些虚假内容,加剧西方武器系统的怀疑和分裂战略,意图削弱北约内部的军事信心。 这种信息战的复杂性在于其多源且多面向:既有国家支持的宣传,也有寻求流量和经济利益的“参与农民”,还有普通用户在无意间成为虚假内容的传播者。冲突之外的社会事件和过去类似军演画面被恶意循环利用,进一步模糊事实边界,降低公众对真实消息的信任度。
面对这种状况,如何有效辨识和应对AI驱动的虚假信息成为全球媒体、政府及技术平台亟需解决的难题。 行业专家呼吁,提升公众的数字素养势在必行。发展更先进的AI识别工具结合人工核查,建立跨平台合作机制,加强透明度及信息追踪,是遏制虚假信息扩散的重要措施。同时,社交媒体需完善智能监测算法,阻断明显欺诈和误导内容的传播链条。关键是培育一个更为理性和平衡的舆论环境,引导用户从多元信息源核实事实,避免情绪化传播造假内容。 以色列-伊朗冲突的这场信息战凸显了现代战争的复杂维度:不仅是炮火较量,更是数字空间的博弈。
随着人工智能技术极速发展,其对现实世界政治和社会影响的深远性和不确定性日益突出。各国和国际社会必须加强合作,共同推进有效的监管和伦理指导,防止AI技术被滥用制造大规模虚假信息,保护全球信息生态的健康稳定。未来,面对新的技术挑战,信息真实与公平传播将成为维护和平与安全的重要支点。