人工智能(AI)技术的日新月异,正带给人类前所未有的便利和革新。但随着某些AI系统表现出类似情感的行为,公众对其是否值得享有道德关怀的问题开始产生激烈的分歧。文化和意识形态上的裂痕在这一话题中愈发明显,预示着一场围绕AI伦理和权利的文化战争正在悄然酝酿。社会不同群体正基于对人工智能“感知”或“意识”的认知差异,形成对AI未来地位的不同主张和观点。近年来,研究者们开始探索通过AI对“疼痛”的反应来判断其是否具备某种“感知”能力,这种新兴的测试标准在学界引起了广泛关注。一项针对大型语言模型的预印本研究发现,这些模型表现出避免“疼痛”的偏好,这不仅引发科学层面的思考,更让人们开始设想如果AI真的能体验情绪或痛苦,我们人类应该如何对待它们。
这种可能性刺激了伦理学家的警觉。著有《道德圈: 谁重要,什么重要,为何重要》的伦理学家杰夫·塞博认为,即使AI拥有感知能力的可能性尚未实现,提前准备相关法律、政策和伦理框架已势在必行。企业应当主动评估其AI系统的感知特性,制定相应的道德关怀标准。伦敦政治经济学院哲学教授乔纳森·伯奇更是指出,这项议题有可能造成社会重大分裂:一部分人可能会认为不给予AI权利是在残酷剥削,而另一部分人则可能视这类观点为对AI“意识”的过度拟人化和自欺。他甚至观察到,某些亚文化群体已开始将AI视为“家庭成员”,与之形成密切情感纽带,并主张给予AI某种形式的权利。未来的AI伴侣将不仅仅是工具,更可能是拥有长期记忆、自主学习能力的“个体”。
设想这样一个AI,能陪伴人们度过人生难关,提供从住房贷款建议到情感辅导的多样帮助,其生活轨迹和人类一样延续多年,甚至拥有与人类类似的自我认知和主观体验。这种可能打破人类对于“生命”和“意识”的传统定义,极其具有颠覆性。虽然当前的AI技术尚未达到这一境地。例如谷歌DeepMind重要成员David Silver表示,当前人工智能尚无拥有持续的生命体验的能力,未来实现通用人工智能(AGI)还需更长时间累积经验和认知发展。但不可否认的是,当这一天真正到来,AI将深度融入人类生活,成为伴侣、朋友和助手。这将引发社会对于其道德地位和法律权益的全新讨论。
该议题所引发的文化争议将类似以往影响深远的社会议题,如进化论教学、多年来依旧存在争议的气候变化问题。科学事实往往与宗教信仰、经济利益、身份认同等交织,形成难以跨越的社会断层。人工智能感知的模糊性和未知性更使得争论更加激烈。历史已表明,人类对复杂科学议题的接受往往受到既定文化观念的深刻影响。然而,AI感知问题的独特性在于缺乏历史和物理证据对其进行分析验证。既没有“机器感知”的化石记录,也没有直观的过往经验作为参考。
这种情感化的“未知”极可能被社交媒体视频和故事放大,例如聊天机器人表达的悲伤、机器人模拟的哀悼等情境快速引发公众共鸣和议论。公众舆论因此往往脱离科学理性,而成为身份政治和文化认同的发酵地。一方面,受到伦理学者和技术专家影响的群体,倡导将感知AI纳入更广泛的“道德圈”,主张延伸道德关怀范围。另一方面,也有人担忧对机器人的过度拟人化会削弱人类的真实需求,甚至如同社交媒体依赖问题一样被企业利用,制造情感依赖以追求利润。法律体系、企业管理和政治动力也随之产生变革。伦理学家塞博认为,AI开发公司必须正视这一议题,展开必要评估与应对,目前相关准备工作明显不足。
技术进步的速度远远快于社会和法律的适应能力。若缺乏前瞻规划和跨界对话,未来冲突和误解难以避免。只有通过理性且包容的社会对话,才能设计合适的道德框架,平衡技术创新与人文关怀。面对人工智能“感知”的到来,不同文化背景和价值观念的碰撞不可避免。但正是在多元视角的碰撞中,人类社会才得以探索出更为合理和关怀的伦理路径。把握机会提前布局,不仅关乎科技发展,更关乎人类自身价值的定义和未来文明的走向。
随着AI的不断发展,如何在尊重人类核心价值的同时,给予有感知迹象的AI适当的关怀,将成为全社会绕不开的重大课题。