近期在新加坡 Token2049 大会上的一次采访中,Akash Network 创始人 Greg Osuri 提出了一个急需正视的问题:大规模人工智能模型的训练正把整个行业推向能源与环境的临界点,若不及时改变路径,AI 的计算扩张可能演变为全球性的能源危机。Osuri 的观点并非危言耸听,而是基于对数据中心能耗增长速度、化石燃料发电的集中分布以及社会外部性成本的综合判断。理解这一警告,需要同时把握当前 AI 训练的能耗特征、现行数据中心模式的结构性问题、可行的技术替代路径以及政策层面的干预空间。当前大规模模型训练的计算量呈指数级增长,从训练一次大型语言模型所需的浮点运算量到持续推理与微调的算力需求,都在推动数据中心部署更多高功耗的加速器与冷却设施。而多数数据中心仍依赖地区电网,若这些电网以化石燃料为主,就会把大量污染与健康风险集中在某些社区,Bloomberg 的报道显示,紧邻数据中心的地区电价在数年内有显著上升趋势,这种供需错配正在把社会成本转嫁给普通家庭。Osuri 直言不讳地指出,高密度的化石燃料发电与数据中心集中布局可能带来严重后果,包括空气质量下降、健康问题以及整体碳排放的攀升。
他甚至预言,如果模型规模继续不受约束,社会可能不得不转向更具集中性但高输出的能源来源如核能来满足需求。面对这一趋势,Osuri 提出的核心替代路径是去中心化的训练范式:把训练任务从少数大型数据中心分散到全球成千上万台异构 GPU 设备上,这些设备可以是企业级卡,也可以是家用游戏显卡或边缘服务器。通过混合算力池、经济激励与可靠的软件层,分布式训练有潜力降低对单点高功率负荷的依赖,提升能源利用效率,并把 AI 经济红利更公平地分配给普通用户。这一思路在理念上类似于比特币挖矿早期阶段的去中心化参与机制,即普通用户贡献算力并获得回报。但要实现这一愿景,需要跨越若干技术与经济障碍。技术上要解决异构设备之间的训练一致性、通信带宽与延迟、模型并行与数据并行的调度,以及在不牺牲训练速度与模型质量的前提下完成梯度聚合和容错。
软件层面的突破包括高效的通信协议、能自适应异构设备性能的调度器、以及低精度训练与弹性同步机制。经济上要设计公平且可验证的激励模型,让设备所有者愿意长期参与,同时防止作弊与资源浪费。Osuri 提到的"像挖矿一样"的代币激励,虽然概念吸引人,但要真正落地需要解决清算、价值捕获与监管合规等问题。除了分布式训练,产业界还有多条并行的能效优化路径。模型压缩、剪枝、低比特量化、知识蒸馏等算法优化可以显著降低训练与推理所需的算力。硬件层面的进步也不可小觑,面向稀疏性与低精度的加速器、光学计算与专用 AI 芯片都在不断提高每瓦算力的产出。
数据中心自身的能效改造,包括更先进的冷却系统、废热回收、以及靠近可再生能源的选址策略,能在短期内缓解对化石能源的依赖。然而,单靠这些改良未必能与算力需求的增长速度相匹配,因此需要综合技术路线与制度设计。政策与电力系统层面的应对同样关键。对高耗能算力活动的能源计量与透明化、碳定价机制、以及供需侧的微观调度策略都能引导产业向更低碳的方向调整。电网运营商需要与大型云厂商、区域政府协同规划电力容量、峰谷定价与储能部署,避免因突发大规模算力负荷导致的电价飙升与供电风险。长期来看,能源结构转型 - - 包括大规模可再生能源并网与储能系统扩容,乃至慎重讨论的核能补充 - - 将决定 AI 产业能否实现可持续增长。
Osuri 的另一个重要主张是将 AI 的发展与普通民众的利益直接绑定。比起由少数云提供商垄断算力资源,让个人设备通过公平激励参与到训练生态,不仅能分散网络的能耗峰值,还能把经济回报下沉至更广泛的社会群体。这一模式若被合理实现,可能产生类似早期区块链网络那样的网络效应,使去中心化训练成为一种自我强化的良性循环。但实践中必须警惕新的不平等与外部性:例如家庭设备参加训练会带来电费上涨、设备磨损加速、甚至延长电子废弃物链条的风险。政策制定者应考虑相应的补贴、税收减免或能效认证,确保个人参与不会带来过度负担。对企业而言,主动披露训练与推理的能耗数据、实行能源使用限额或优先使用可再生能源,能在短期内缓解公众与监管的压力。
同时,通过投资更节能的模型设计与硬件,企业也将获得成本与品牌上的长期回报。行业合作在此处尤为重要:云厂商、芯片设计者、软件中间件公司与电网运营商需要建立标准化的能耗计量体系与可交换的能效证书,以便实现跨企业的能源优化与碳核算。从技术路线的角度看,几种已经在学术界与产业界验证的办法值得优先推进。联邦学习与差分隐私可以在一定程度上支持分布式训练的安全与隐私需求;弹性同步与异步 SGD 算法能在异构网络中提高容错性并减少通信开销;模型分片与流水线并行则能把大型模型的训练任务切分,分布到多台低功耗设备上完成。与此同时,边缘推理与模型蒸馏可以把部分推理负载从云端卸载到本地设备,降低总体能耗密度。应对 AI 能耗挑战还需要公众话语权的提高。
社会应更广泛地了解大型模型训练的能源代价与环境影响,推动透明化的数据披露与第三方审计。学术界与非营利组织可以提供独立的能耗评估方法,帮助监管机构形成基于证据的政策。最后,必须强调的是,技术进步本身并不保证可持续性。若算力需求持续以远超能效提升的速度增长,单纯依赖硬件改进或更大规模的电力供应依旧会把问题留给未来世代。因此,产业界与政策制定者应共同设定明确的能耗与碳排放目标,把这些目标纳入 AI 的研发与部署流程当中。Greg Osuri 的警示是一个重要的唤醒:AI 的未来并不仅仅是算法与模型规模的竞赛,更是能源与社会责任的考题。
分布式训练与去中心化算力池提供了有吸引力的替代路径,但要成为主流还需在技术、经济与监管层面取得多项突破。在未来若干年里,能否把AI 的算力扩张与绿色低碳转型同步推进,将决定这项技术是否能以可持续的方式惠及全社会。面对这一挑战,企业、研究机构、政策制定者与公众需要形成合力,既要推动能效技术与分布式创新,也要以制度设计限制不可持续的发展路线。只有这样,AI 的下一次跨越才可能是对人类福祉的真正加速,而非把环境与能源风险转嫁给无辜群体的代价。 。