近年来,人工智能技术的进步从未像现在这般迅猛,人工智能通用智能(AGI)成为科技圈内最炽热也最具争议的话题。AGI指的是具备等同甚至超越人类认知能力的智能系统,这一目标牵动着全球无数科技企业和研发团队的神经。然而,快速前进的技术竞赛也引发了严峻的伦理危机和安全隐患,甚至被部分专家视为对人类未来构成"生存威胁"。在这一背景下,一场特殊的抗议方式受到关注 - - 绝食抗议,以期引起科技公司领导层的重视,推动人工智能发展走向自我约束和理性监管。 绝食抗议的核心人物之一是居住在旧金山的抗议者Guid Reichstadter。他自2025年9月初开始,在AI创业公司Anthropic总部外坚持绝食,携带写有"终结AGI竞赛"的标语牌,呼吁停止开发具备超级智能的AI技术。
他认为,这场竞赛是"疯狂且极度危险"的,因为一旦这些超级智能系统失控,可能对人类文明造成无法估量的灾难。Reichstadter表示,科技公司未能充分意识到潜在风险,仍在推动AGI的开发,完全忽视了对未来社会、经济乃至人类存续的深远影响。 AGI的概念缘起于人工智能研究领域长期以来对"机器能够像人一样思考和行动"的梦想。2022年ChatGPT的发布,极大地激发了大众与科技界的想象力与担忧。Reichstadter早在大学时代便对"人类水平的AI"有所关注,随着AI产品的快速普及,他对技术滥用及其对民主与自由的影响忧心忡忡。在他看来,AI正加剧全球监控与专制体制,削弱社会公正与透明度,未来的风险甚至比以往任何时候都更为紧迫。
除了在旧金山的抗议,类似的绝食行动也在伦敦和印度同步展开。伦敦的绝食抗议由参与者Michael Trazzi发起,尽管因健康问题中断,但他和同伴Denys Sheremet继续坚持,且同样向Google DeepMind递交了公开信,敦促科技巨头们集合力量,联合暂停高风险AI技术的研发。Trazzi强调,AI的潜在危险需要立法和国际协作监管,技术本身无善恶,关键在于开发者和政策制定者必须承担起责任,并制定切实可行的安全措施。 这类抗议行动凸显了业界内部对AI安全问题的分歧。一方面,大多数AI公司高层认可技术不可避免且会带来巨大进步。另一方面,科技人员内部也存在对潜在"灭绝风险"的担忧。
面对风险,有些员工选择继续奋斗,希望通过内部安全措施减少危害,而有些则公开支持暂停开发,倡导建立全球监管框架。公众和投资者的关注促使这些科技公司不得不公开回应AI安全问题。Google DeepMind一位公关主管Amanda Carl Pratt表态,AI发展必须兼顾科学进步与安全责任,强调透明监管和道德治理重要性。 然而,抗议者们认为企业的安全承诺往往流于表面,无法抵挡商业和竞争压力。Anthropic CEO Dario Amodei曾在采访中坦言,开发AGI存在10%到25%的灾难性概率,但同时坚称企业会努力负责任地推进技术。Reichstadter对此表示质疑,认为这种"自我监管"的说法是"神话",其背后隐藏着利润优先的现实逻辑。
正因如此,他才以绝食这种极端却和平的方式,直面企业决策者,迫使他们在"可能导致大规模伤害"的技术上做出道德选择。抗议者寄望于能引发科技界反思,也希望激励企业员工践行良知,勇于对自己的工作影响负责。 在公共舆论和技术伦理的双重压力下,推动国际范围内的AI开发暂停与监管成为现实挑战。抗议信呼吁制定类似核武器及环境公约的国际协议,防止竞赛导致灾难性后果。对于一些国家和公司来说,积极参与规范制定也是赢得公众信任和确保技术可持续发展的必要步骤。 面对前所未有的技术变革,社会必须权衡创新与风险,个体勇敢站出表达关切,无疑是推动变革的力量之一。
绝食抗议正因其极致的表达力度和深刻的伦理诉求引发关注,也凸显人们对未来科技走向的焦虑和期待。相比于传统抗议,这种以身体饥饿为代价的沉默抗争,映射出人类对文明存续的迫切关切和呼唤理性的渴望。 人工智能无疑是21世纪最具革命性的科技力量,既能推动社会进步,也可能带来不可逆转的挑战。在这条发展道路上,技术领导者、政策制定者、科研人员与公众,都必须携手面对复杂难题。终结这场激烈的AI竞赛,需要各方放下短期利益,着眼长远安全,建立真正有效的管控与合作机制。绝食抗议作为公众发声的极端形式,让我们无法回避对未来伦理与责任的深刻反思。
只有如此,人工智能才能在造福社会的同时,避免成为毁灭的隐患。 。