人工智能(AI)作为当代科技领域的热门话题,已经深刻改变了人们的生活和工作方式。从日常写邮件到复杂的学术研究,AI辅助工具被越来越多的用户广泛使用。美国的一项调查显示,约有四分之一的美国人每天多次使用人工智能技术,另有28%的人表示每天至少使用一次。然而,在欣喜于AI带来的便捷之余,公众对其背后潜藏的环境成本却知之甚少。随着AI模型规模不断扩大,计算过程中的能耗问题日益突出,特别是在不同提示语触发的资源消耗方面,有研究发现某些AI提示语的碳排放量比其他提示语高出多达50倍,这一数据令人震惊也促使行业重新审视AI的可持续发展路径。 一方面,人工智能的发展离不开庞大的数据中心支持。
2023年,美国数据中心消耗的电力占全国总电力的4.4%,预计到2028年这一比例将上升至6.7%至12%。全球范围内,数据中心数量从2012年的50万个猛增至2024年的超过800万个,伴随着服务器运算需求的激增,能源消耗不可避免地呈现爆炸式增长。 国际能源署(IEA)的一项分析指出,生成大量文本与运行一盏LED灯一个小时所消耗的电量相当,而制作一段八秒长的视频所需的电能,则相当于给笔记本电脑充电两次。显然,仅仅是日常的AI操作,其背后隐藏的能耗规模已不容忽视。 一项发表在《Frontiers》期刊的研究,更加详细地剖析了AI生成过程中的“代币”使用情况。代币是语言模型处理和生成文本时的最小数据单位。
研究人员分析了14个参数规模从7亿到720亿不等的大型语言模型(LLM),针对相同的1000个基准问题展开测试,发现不同提示语导致了截然不同的代币使用量,进而直接影响碳排放量。 复杂推理能力更强的模型,如Cogito模型,平均每个问题生成543.5个“思考”代币,比起更简洁的模型仅使用37.7个代币,消耗资源显著更多。这种代币数量的暴增意味着算法需要在内部进行大量计算,产生了更高的能源需求和对应的碳排放。更重要的发现是,无论答案是否准确,代币使用量越多,碳足迹也就越大。 研究同时揭示,不同题材对碳排放的影响也极为显著。相对简单的高中国家历史问题生成的碳排放是抽象代数或哲学问题的六分之一,因为后者需要更长久而复杂的推理和思考过程。
这种现象反映了AI面对不同复杂度的任务时,资源消耗的巨大差异。 事实上,目前许多AI模型在准确性和可持续性之间呈现明显的权衡。被认为最准确的推理模型Cogito,其碳排放量是同规模更简洁模型的三倍以上。换言之,在当前技术框架下,要同时追求高准确度和低能源消耗尚未实现理想的平衡。Hochschule München应用科学大学的研究员Maximilian Dauner表示,那些碳排放低于500克二氧化碳当量的模型,在1000个问题的准确率上均难以突破80%。 这一困境促使业界思考,如何在保证回答质量的同时,提高能源效率,降低碳排放。
除了优化模型架构,研究团队还指出,不同模型本身的设计也会导致碳排放差异。例如,参数接近但效率差异明显的DeepSeek R1与Qwen 2.5模型,前者回答60万个问题的碳排放等于一次伦敦至纽约的往返航班排放,而后者则在排放相同量的情况下,可回答近190万个问题,显示出更强的能源利用效率。 AI技术广泛应用之时,促使用户对能源消耗和环境影响具备更清晰认识至关重要。如同Dauner所言,如果用户了解每一次AI生成内容都伴随一定的二氧化碳排放,那么他们可能会更加理性地选择何时、如何使用这些工具,减少不必要的计算浪费。这对未来推动绿色计算提出了新的挑战和机遇。 此外,科技公司和研究人员正在积极探索新兴的低能耗AI技术,包括优化训练和推理流程、引入节能硬件以及提升模型压缩技术等,以实现更环保的人工智能发展。
与此同时,政策层面也开始关注AI引发的能源问题,规范数据中心用电标准,推动绿色能源接入,促进AI产业链的绿色转型。 总结来看,人工智能作为引领未来的技术力量,在带来便利与创新的同时,其背后庞大的能源消耗不容忽视。不同AI提示语导致的碳排放差异,揭示了AI生态系统中诸多潜在的环境隐患。只有通过技术进步、用户教育以及政策引导的多方合作,才能实现AI的精细化管理与绿色发展,真正做到科技进步与气候保护的双赢。