在当今社会,人工智能(AI)被广泛宣传为推动社会进步和技术创新的重要力量。然而,最新的研究数据显示,美国边缘群体对于人工智能持有显著的质疑甚至负面态度,揭示了技术发展背后存在的深刻社会矛盾和信任鸿沟。边缘群体主要包括非二元性别人士、跨性别群体、女性、残障人士,尤其是神经多样性个体以及患有心理健康问题的人群。尽管人工智能被视为提升效率和公平的工具,但这些群体所体现出来的焦虑和怀疑提醒我们,科技进步并非对所有人都是福音。理解边缘群体对人工智能的不信任,有助于形成更具包容性和公正性的人工智能发展策略。 来自密歇根大学的一项权威研究基于742名参与者的全国代表性调查,首次详细剖析了不同身份群体对人工智能的态度差异。
研究发现,非二元和跨性别者对人工智能持有最负面的态度,反映了他们在面对人工智能应用时遭遇的具体风险和直接体验。女性对人工智能的积极看法明显少于男性,这背后或与社会文化中存在的性别偏见和安全担忧相关。此外,残障人士,尤其是神经多样性及心理健康问题患者,也表达了对人工智能的担忧与不信任感。值得注意的是,黑人群体对人工智能的看法相对更为积极,这体现了一种复杂的技术与种族之间的互动关系,提示我们不能简单以单一维度评估技术影响。 这些负面态度的根源并非空穴来风,而是基于大量现实生活中人工智能技术造成的伤害和不公平现象。人脸识别技术在识别跨性别及非二元性别人士时经常出现误判,甚至带来变相的监视压力,使得这些群体在日常生活中感到被侵害和歧视。
预测性警务算法因依赖有偏见的数据,重复并加剧了对有色人种的执法偏见,导致不公正的逮捕和法律后果。医疗领域依赖的人工智能模型往往未考虑残障人士的特殊需求,导致诊疗上的误差和不公平待遇。这些事实构成了边缘群体对人工智能深刻不信任的基础,也揭示出现阶段技术设计在包容性和公平性方面的不足。 人工智能常被塑造成一个“中立”的存在,仿佛脱离了社会、文化与权力关系。然而,边缘群体的体验提醒我们,人工智能本质上是由人设计和训练的,必然会反映设计者和系统所处环境的偏见。忽视这些偏见,将促使人工智能加深而非消除社会不平等。
密歇根大学的Oliver Haimson教授明确指出,“如果继续忽视边缘群体的视角,我们可能会见证一个以AI为中心但增强了不平等的未来。”这个警示对科技界、政界和公众提出了深刻的挑战,要求对当前的技术创新路径进行反思和调整。 在推动人工智能更加公正包容的过程中,研究者和政策制定者需要重新审视数据采集、算法设计和实际应用的全流程。人工智能开发者应主动与多元群体合作,积极聆听并融入他们的需求和担忧。同时,监管机构需制定相应的法律法规,确保技术的透明度和问责制,防止对边缘群体的歧视和伤害。教育和公众宣传也要帮助社会理解人工智能的潜在风险与局限,避免盲目信任和过度依赖。
只有在多方协力预防偏见和不公,才可能实现人工智能应有的社会价值。 此外,边缘群体对于人工智能的负面态度也反映出更广泛的社会排斥感和身份认同危机。技术不仅仅是工具,更是权力关系的体现。人工智能作为由主流社会掌握和塑造的力量,其设计和应用过程往往无意识地延续了既存的权力结构。这使得边缘群体在面对新兴技术时产生防备心理和不信任感。重构技术与社会的关系,需要从底层机制入手,推进技术民主化,保障所有群体参与技术讨论和决策的权利。
社会对于人工智能未来的态度通常被塑造成“技术乐观主义”与“技术恐惧症”之间的二元对立。密歇根大学的这项研究打破了这种简单划分,揭示了边缘群体复杂且多层次的AI态度。这种态度不仅仅出于对技术功能的不了解,更多源于对自身存在状态和权利保障的深刻考虑。社会各界需要以更加敏感和开放的心态,尊重并回应不同群体的声音,共同推动技术进步,并确保其成果惠及所有人,而非加剧分裂与排斥。 综合来看,边缘群体对人工智能的高度质疑是当下技术发展不可忽视的警示信号。推动人工智能的全面、公正发展,必须正视技术背后的社会结构性问题,切实改善设计方法和应用环境。
未来的人工智能不仅需要解决复杂的技术难题,更需要成为促进社会公平和多样性的积极力量。唯有如此,智能时代方能实现真正的包容与共赢。