无论你使用OpenAI的ChatGPT、谷歌的Gemini还是任何其他聊天机器人,每一个问题都会触发一系列幕后计算。某个地方的数据中心努力工作,从电网中获取能量,释放热量。环境成本隐藏在我们日常人工智能使用的便利性中。

根据国际能源署(IEA)的数据,使用ChatGPT的简单提示消耗的电量是谷歌搜索的10倍。发表在《沟通前沿》上的另一项研究发现,某些先进的人工智能的可以的排放量比其他模型高出50倍。
这是因为像ChatGPT这样的人工智能模型使用数十亿个参数进行提示,每个令牌需要更多的计算。生成的每个令牌都涉及多层神经网络操作,使其比检索搜索结果更耗能。
为世界数据基础设施供电所需的电力不断上升。美国劳伦斯伯克利国家实验室(LBNL)发布的《2024年美国数据中心能源使用报告》追踪了2014年至2028年数据中心电力消耗的趋势。根据该报告,数据中心的能源需求在过去十年中增长了两倍,到2028年将翻一番,甚至三倍。
当你使用AI中时,它会将输入文本分解为称为标记的小块。这些令牌被转换为数字,以便系统能够理解和响应。这个过程使用了大量的计算能力,其副产品是二氧化碳。排放是全球变暖、冰盖融化、极端天气加剧以及推动地球走向不可逆转的气候崩溃的罪魁祸首。
为了阐明这一点,《传播前沿》研究的作者对几种广泛使用的语言模型进行了比较研究,分析了每个人在响应一组标准化的提示时产生的排放。
研究人员比较了14个大型语言模型,大小从70亿到720亿个参数不等,并测量了在回答1000个标准化问题时产生的排放量。总体而言,产生答案的过程伴随着可测量的碳足迹。
推理模型在每个问题上平均产生543.5个内部标记,而更简洁的模型只使用了37.7个。这些内部或“思考”令牌代表了模型在呈现响应之前所采取的幕后步骤,每个步骤都有更高的能源成本。
主题也是一个关键因素。研究人员发现,当提示需要更长的推理过程时,例如关于抽象代数或哲学的问题,这些模型产生的碳排放同解答高中历史等更简单的话题相比,高达六倍。更复杂的问题导致了更多的令牌、更多的计算,最终导致了更大的环境足迹。
慕尼黑应用科学大学研究员、该研究的第一作者Maximilian Dauner说:“LLM(大语言模型)的环境影响很大程度上取决于他们的推理方法,明确的推理过程会显著增加能源消耗和碳排放。” “我们发现,推理模型产生的二氧化碳量比简洁的响应模型高50倍。"
该研究揭示了两个规模相似的人工智能模型之间令人惊讶的排放差距。据评估,基于700亿个参数运行的DeepSeek R1在回答了60万个问题后,会产生相同的碳排放数量等于从伦敦到纽约的往返航班。Qwen 2.5也使用720亿个参数,在产生大约相同水平的排放量的同时,以类似的精度处理了近三倍的问题。
研究人员谨慎地指出,这些差异可能不仅仅是由于模型造成的。结果可能受到测试中使用的硬件类型、为数据中心供电的本地能源结构和其他技术变量的影响。换句话说,人工智能模型在哪里以及如何运行,与它有多大或有多先进同样重要。
虽然技术因素很重要,但研究人员也认为用户在减少人工智能对环境的影响方面可以发挥作用。Dauner解释说:“用户可以通过促使人工智能生成简洁的答案或将高容量模型的使用限制在真正需要这种能力的任务上来显著减少排放。”
即使是人们与人工智能互动方式的微小调整也会累积起来。在数百万用户和查询中,这些选择有可能减轻能源系统和数据基础设施日益增长的负担。
Dauner还强调了人工智能使用透明度的重要性,并指出更清晰的信息可以塑造用户行为:“如果用户知道他们的人工智能生成输出的确切成本,他们可能会在何时以及如何使用这些技术方面更有选择性和深思熟虑。"
同时,该研究明确指出,责任不能仅由用户承担。开发人员和公司在塑造人工智能如何集成到产品和服务中发挥着核心作用。随着生成工具继续嵌入到各个平台中,通常没有太多的审查或明确的目的,人们越来越需要问这些集成是否真正起到了有意义的作用。
由于气候和环境问题在当前的政策格局中不是一个明确的优先事项,因此责任主要落在了行业本身身上。用户、开发人员和公司需要带头更周到地构建和应用人工智能,同时考虑到可持续性。
NVIDIA DLI 与Ai时代前沿合作,将大门向更多普通用户敞开!无论你是对新技术充满好奇心的爱好者,还是希望提升自己技能的职场人士,这里都有适合你的课程和资源。