近年来,人工智能技术迅速发展,尤其是生成式人工智能(Generative AI)在文本、图像和视频制作领域表现出极高的创造力和效率。然而,联合国最近发布的报告《数字平台上的信息完整性》却对这项技术所带来的负面影响发出严厉警告,特别是人工智能生成的深度伪造(Deepfake)技术如何在网络上助长仇恨言论和虚假信息的传播。联合国秘书长古特雷斯在报告序言中明确指出,虽然人工智能拥有解决全球挑战的巨大潜力,但其迅猛发展也引发了信息诚信受到威胁的严重担忧,当前“照常营业”的做法已经无法适应时代需求。 信息完整性即指信息的准确性、一致性和可靠性,是社会稳定和民主运作的基石。然而,深度伪造技术的出现给这一根基带来了前所未有的冲击。深度伪造利用人工智能算法生成高度逼真的虚假图像和视频,使得虚假信息更容易被误认为真实内容。
尤其在社交媒体普及的今天,这些内容传播速度极快,导致公众对真实事件的认知发生扭曲,从而助长社会分裂和冲突。 联合国报告中特别强调,在一些冲突地区,基于AI的深度伪造技术被用来制造虚假内容,激化仇恨情绪,助推暴力和仇杀。历史上,仇恨言论往往是大规模暴力事件甚至种族灭绝的前奏。1948年《防止及惩治灭绝种族罪公约》中明确规定,任何直接且公开的煽动行为都可能构成犯罪。然而,利用深度伪造创造的虚假信息无疑加剧了这一问题,因为其难以被即时辨别和制止,法律应对也面临巨大压力。 深度伪造技术的滥用案例层出不穷。
举例来说,2023年3月,一张AI生成的前美国总统唐纳德·特朗普被捕的图像在推特上迅速传播,该图片最初由调查记者组织Bellingcat创始人埃利奥特·希金斯分享,尽管这是一张假照片,却引发了广泛的关注和讨论。同月,知名的文本生成图像AI公司Midjourney宣布终止其免费试用服务,原因正是防止用户利用其平台进行内容滥用和误导性传播。 这些事件揭示出技术本身的双刃剑特性。一方面,生成式AI有潜力提升创作效率,推动艺术和信息传播方式的创新;另一方面,若监管不到位,其产生的深度伪造和虚假信息极易被恶意利用,危害公共信任和社会稳定。联合国因此呼吁全球社会采取负责任的AI发展路径,加强对AI技术的监管,确保科技进步与伦理道德同步前行。 面对这一严峻挑战,联合国提出维护信息完整性的多重策略。
首先,必须增强公众的媒介素养,提高民众辨识虚假信息和深度伪造内容的能力。教育体系应纳入相关知识,加强用户在数字时代的自我保护意识。其次,社交媒体平台和技术公司需承担更大责任,建立更智能的内容审查机制,利用AI辅助检测和过滤虚假内容,避免其迅速扩散。此外,国际社会需要协同合作,制定统一的法律法规框架,规范人工智能技术的应用边界,强化对跨境网络犯罪的打击力度。 与此同时,人工智能的透明性和可解释性成为亟待解决的问题。深度伪造的制作过程复杂且黑箱化,使得监管和追责存在困难。
学界和企业界应致力于研发可解释和可追溯的AI系统,提升技术透明度,保证技术应用的可信赖性。联合国强调,技术创新与人权保护不可割裂,未来人工智能政策必须兼顾发展与保障,防止潜在风险带来的社会伤害。 从宏观角度看,人工智能深度伪造不仅是技术问题,更是社会政治议题。它挑战了传统新闻媒体的权威性,扰乱了民主决策过程,甚至影响国际关系和安全。联合国的报告提醒各国政府及全球治理机构,必须正视AI误用风险,打造一个更加安全、可信的信息生态环境,才能真正实现人工智能造福人类的愿景。 展望未来,人工智能生成深度伪造的技术必将进一步成熟,易用性和普及程度持续提升。
公众、政府和企业需要形成合力,多渠道、多维度应对挑战。除了技术层面的防护,文化建设和法治建设同样重要。只有在社会各界的共同努力下,才能遏制深度伪造带来的恶劣影响,维护网络空间的健康秩序。 总结来看,联合国此次报告的发布,不仅为全球警示了深度伪造伴随而来的诸多隐忧,更为各界绘制了未来治理的蓝图。作为社会成员,理解和抵制虚假信息,支持负责任的人工智能发展,是每个人应尽的义务。唯有如此,我们才能在人工智能的浪潮中驾驭关键技术,确保信息安全和社会和谐,推动人类文明向前发展。
。