×

Nature:人工智能到底会消耗多少能源?好的、坏的和未知的

hqy hqy 发表于2025-04-26 16:25:43 浏览3 评论0百度已收录

抢沙发发表评论

插图:Ollie Hirst

弗吉尼亚州库尔佩珀县弥漫着干草和粪肥的香气,这里每三个人就养有一头牛。“我们有大农场,大部分仍为家庭所有,还有许多森林,”该县 55,000 名居民之一 Sarah Parmelee 说道。“这是非常迷人的美国小镇,”她补充道。

但这种田园诗般的生活正处于 21 世纪的转变之中。过去几年,该县批准建设七个大型数据中心项目,这些项目将支持科技公司实现其生成人工智能 (AI) 的宏伟计划。在这些巨大的建筑内,一排排的计算机服务器将帮助训练 ChatGPT 等聊天机器人背后的人工智能模型,并为来自世界各地的数十亿个日常查询提供答案。

在弗吉尼亚州,建设数据中心将产生深远的影响。每个数据中心设施可能消耗与数万户居民相同的电力,这可能会推高居民的成本,并使该地区的电力基础设施不堪重负。帕默利和社区中的其他人对数据中心对电力的需求持谨慎态度——尤其是因为弗吉尼亚州已经被称为世界数据中心之都。2024 年 12 月发布的一项州政府委托审查指出,尽管数据中心带来了经济效益,但它们的增长可能会在十年内使弗吉尼亚州的电力需求翻一番1。

灯泡有能效等级——那么为什么人工智能聊天机器人没有呢?

“电力从哪里来?”帕默利问道,他正在绘制该州数据中心的崛起路线图,并为总部位于弗吉尼亚州沃伦顿的非营利组织皮埃蒙特环境委员会工作。“他们都说,‘我们将从隔壁的地区购买电力。’但那个地区正计划从你那里购买电力。”

类似的人工智能与能源冲突正在全球许多数据中心以创纪录的速度涌现的地方酝酿。大型科技公司正在大力押注生成式人工智能,与从数据中提取模式但不生成新文本和图像的旧人工智能模型相比,生成式人工智能需要更多的能源来运行。这促使各公司共同花费数千亿美元建造新的数据中心和服务器以扩大其容量。

从全球来看,人工智能对未来电力需求的影响实际上预计相对较小。但数据中心集中在密集的集群中,它们可以对当地产生深远的影响。它们在空间上的集中程度远远高于其他能源密集型设施,如钢厂和煤矿。公司倾向于将数据中心建筑建在靠近的地方,以便它们可以共享电网和冷却系统,并高效地在它们之间和用户之间传输信息。尤其是弗吉尼亚州,它通过提供税收减免吸引了数据中心公司,从而进一步促进了集群化。

“如果你拥有一个数据中心,那么你很可能会拥有更多,”帕默利说道。弗吉尼亚州目前已有 340 个这样的数据中心,帕默利已绘制了弗吉尼亚州 159 个拟建数据中心或现有数据中心扩建的地图,根据加利福尼亚州帕洛阿尔托研究机构 EPRI 的报告,这些数据中心占该州电力消耗的四分之一以上2。在爱尔兰,数据中心占该国电力消耗的 20% 以上,其中大多数位于都柏林郊区。在美国至少有 5 个州,这些设施的电力消耗已超过 10%。

让问题更加复杂的是,各公司对其人工智能系统的电力需求缺乏透明度。“真正的问题是,我们几乎没有详细数据和知识来了解正在发生的事情,”独立研究员乔纳森·库米 (Jonathan Koomey) 说,他研究计算机能源使用已有 30 多年,在加利福尼亚州伯林盖姆经营着一家分析公司。

“我认为研究这个主题的每一位研究人员都疯了,因为我们没有得到我们需要的东西,”阿姆斯特丹自由大学研究员、荷兰公司 Digiconomist 创始人亚历克斯·德弗里斯 (Alex de Vries) 表示,该公司致力于探索数字趋势的意外后果。“我们只是尽最大努力,尝试各种技巧来得出某种数字。”

计算人工智能的能源需求

由于缺乏来自公司的详细数据,研究人员从两个方面探索了人工智能的能源需求。2023 年,德弗里斯采用了一种供应链(或基于市场)的方法3。他研究了在生成式人工智能市场中占主导地位的 NVIDIA 服务器之一的功耗,并将其推算为一年所需的能源。然后,他将该数字乘以正在运输的或可能需要执行特定任务的此类服务器总数的估计值。

生成式人工智能的环境成本正在飙升——而且大部分都是秘密

如果谷歌搜索使用生成式人工智能,德弗里斯使用此方法估算所需的能源。两家能源分析公司估计,将类似 ChatGPT 的人工智能应用于每个谷歌搜索将需要 40 万到 50 万台 NVIDIA A100 服务器,根据这些服务器的电力需求,每年将耗费 23-29 太瓦时 (TWh)。然后,德弗里斯估计谷歌每天要处理多达 90 亿次搜索(这是来自不同分析师的大致数字),他计算出通过人工智能服务器发出的每个请求都需要 7-9 瓦时 (Wh) 的能源。根据谷歌在 2009 年的一篇博客文章中报告的数据(参见go.nature.com/3d8sd4t),这是普通搜索能耗的 23-30 倍。当被要求对德弗里斯的估计发表评论时,谷歌没有回应。

德弗里斯说,这种能源计算就像“无稽之谈”,因为他不得不依赖第三方的估算,而这些估算是他无法复制的。他的数字很快就过时了。正如美国能源分析公司 SemiAnalysis(德弗里斯依赖该公司的估算)在给《自然》杂志的一封电子邮件中写道,现在集成人工智能的谷歌搜索所需的服务器数量可能会更少,因为今天的人工智能模型可以达到 2023 年模型的准确度,而计算成本只是其中的一小部分。

尽管如此,该公司表示,评估生成式人工智能能源足迹的最佳方法仍然是监测服务器出货量及其电力需求,这也是许多分析师广泛使用的方法。然而,分析师很难将生成式人工智能单独使用的能源隔离出来,因为数据中心通常也执行非人工智能任务。

自下而上的估计

研究人工智能能源需求的另一种方法是“自下而上”:研究人员测量特定数据中心中一项与人工智能相关的请求的能源需求。然而,独立研究人员只能使用开源人工智能模型进行测量,这些模型预计与专有模型相似。

这些测试背后的概念是,用户提交一个提示(例如生成图像的请求或基于文本的聊天),然后一个名为 CodeCarbon 的 Python 软件包允许用户的计算机访问数据中心执行模型的芯片的技术规格。“在运行结束时,它会给你一个你正在使用的硬件消耗了多少能量的估计值,”帮助开发 CodeCarbon 的人工智能研究员 Sasha Luccioni 说,她在 Hugging Face 公司工作,这是一家总部位于纽约市的公司,为人工智能模型和数据集提供开源平台。

Luccioni 等人发现,不同的任务需要的能量不同。根据他们最新的研究结果,平均而言,根据文本提示生成图像消耗约 0.5 Wh 的能量,而生成文本消耗的能量略少。相比之下,现代智能手机充满电可能需要 22 Wh。但差异很大:更大的模型需要更多的能量(参见“人工智能使用多少能量?”)。De Vries 说,这些数字低于他的论文中的数字,但这可能是因为 Luccioni 和其他人使用的模型至少比 ChatGPT 的基础模型小一个数量级——而且人工智能正在变得更加高效。

来源:HuggingFace AI能量得分排行榜

宾夕法尼亚州匹兹堡卡内基梅隆大学的计算机科学家兼 Luccioni 的合作者 Emma Strubell 表示,这些数字是下限。否则,“公司会站出来纠正我们”,她说。“他们不会这么做。”

此外,公司通常会隐瞒软件估算数据中心冷却所用能源所需的信息。CodeCarbon 也无法访问某些类型芯片的能耗。负责维护 CodeCarbon 的法国数据科学家 Benoît Courty 表示,这包括谷歌专有的 TPU 芯片。

人工智能会加速还是延缓实现净零排放的进程?

Luccioni 还研究了训练生成式 AI 模型(即模型从海量数据中提取统计模式)需要多少能量。但是,如果模型每天收到数十亿条查询(正如 de Vries 在其谷歌估算中所假设的那样),那么回答这些查询所用的能量(相当于太瓦时的电力)将占 AI 年度能源需求的绝大部分。训练 GPT-3(ChatGPT 第一版背后的模型)所需的能量约为千兆瓦时。

上个月,Luccioni 和其他研究人员启动了AI Energy Score 项目,这是一项公共计划,旨在比较 AI 模型在不同任务上的能效,并为每个模型评定星级。Luccioni 表示,专有封闭模型的开发人员也可以上传测试结果,不过到目前为止,只有美国软件公司 Salesforce 参与其中。

斯特鲁贝尔表示,各公司越来越不愿透露其最新行业模式的能源需求。她说,随着竞争加剧,“公司外部的信息共享已经关闭”。但谷歌和微软等公司报告称,他们的碳排放量正在增加,他们将其归因于为支持人工智能而建设的数据中心。(谷歌、微软和亚马逊等公司在接受《自然》采访时没有回应有关缺乏透明度的批评;相反,他们强调他们正在与当地政府合作,以确保新数据中心不会影响当地的公用事业供应。)

一些政府现在要求企业提高透明度。2023 年,欧盟通过了一项能源效率指令,要求额定功率至少为 500 千瓦的数据中心运营商每年报告其能源消耗情况。

全球预测

根据供应链估算方法,分析师表示,数据中心目前仅占全球电力需求的一小部分。国际能源署 (IEA) 估计4 2022 年此类设施的用电量为 240-340 TWh,占全球需求的 1-1.3%(如果包括加密货币挖矿和数据传输基础设施,这一比例将上升至 2%)。

人工智能的蓬勃发展将使这一数字进一步上升,但由于许多行业的电气化、电动汽车的兴起以及空调需求的增加,到 2050 年世界电力消耗预计将增长 80% 以上,数据中心“在整体电力需求增长中所占份额相对较小”,国际能源署报告4(见“世界电力增长”)。

来源:参考文献 4

Koomey 警告称,即使对人工智能目前的能源需求进行估算,也很难预测未来的趋势。“没有人知道几年后,无论是人工智能还是传统数据中心,会使用多少能源,”他说。

他说,主要问题在于对所需服务器和数据中心数量的分歧,而公用事业公司和科技公司出于经济动机夸大数字。他补充说,他们的许多预测都是基于“简单的假设”。“他们根据最近的趋势推断未来 10 年或 15 年的情况。”

去年年底,Koomey 与他人合作撰写了一份由美国能源部资助的报告5,该报告估计,美国数据中心目前使用了该国 176 TWh(4.4%)的电力,到 2028 年这一比例可能会增加一到两倍,达到 7%至 12%之间。

与此同时,SemiAnalysis 在 2024 年 3 月的一份报告中指出(参见go.nature.com/439becc),数据中心的能源消耗量甚至会更大:到 2028 年,数据中心将消耗美国 15% 的电力,到 2030 年,数据中心将消耗全球 4.5% 的能源(约为 IEA 数据的两倍;参见“数据中心对全球的影响不大”)。IEA 准备在下个月更新其数据——但无论其预测如何,很明显,人工智能对能源的影响在地方和区域层面将最为严重。

资料来源:参考文献 4,SemiAnalysis

弗吉尼亚州的压力

就像世界各地的研究人员都在努力评估人工智能对能源的影响一样,弗吉尼亚州的居民也缺乏该地区数据中心用电量的信息。帕默利通过梳理新闻报道、行业出版物、税务申报和众包提示,追踪了一些数据中心的电力需求。但她表示,找到信息一直很困难。

弗吉尼亚州联合立法审计审查委员会 (JLARC) 首席立法政策分析师 Mark Gribbin 表示,当地电力公司确实知道建设数据中心的公司需要多少电力,该委员会位于里士满,是负责监督州计划和机构的政府机构。他是一份报告1 的合著者,该报告发现数据中心将使弗吉尼亚州的电力需求在十年内翻一番(参见“数据中心对当地的影响更大”)。但公司通常不会公开单个数据中心的数据。

来源:参考文献 5(顶部);参考文献 2(底部)

上个月,弗吉尼亚州立法者通过了一项数据中心透明度法案,截至本文发稿时,该法案正在等待州长签署。该法案不要求企业披露其电力需求,但要求企业提供水和土地使用等方面的环境影响报告。

与此同时,弗吉尼亚州的电力基础设施已显露出压力。华盛顿特区以西的威廉王子县的一些已获批准的数据中心面临长达三年的延期,因为电力公司无法在承诺的时间内为他们提供电力。

JLARC 的报告称,弗吉尼亚州的公用事业公司将“非常难以”建设足够的基础设施来满足预测的数据中心需求。太阳能设施的新增速度将需要达到 2024 年的两倍,风力发电量必须超过“迄今为止已确保未来发展”的所有海上风力发电场的发电能力。

在某些情况下,建设数据中心的公司正试图自己采购电力供应。例如,去年,微软达成协议,重启宾夕法尼亚州三哩岛核反应堆,为其人工智能运营提供动力。尽管其中一些项目使用低碳或可再生能源,但一些公用事业公司和立法者正在推动开发更多的化石燃料工厂,例如燃烧天然气的工厂——这将增加碳排放。

人工智能需求会下降吗?

建立数据中心的狂热基于这样的假设:越来越多的人希望更经常地使用人工智能。但 IEA 分析师在去年的一篇评论中写道:“人工智能使用的增长速度和方式仍存在根本性的不确定性”(参见go.nature.com/4hu2hos)。人们担心人工智能的表现不稳定,以及因侵犯版权而对模型提出诉讼;未来生成式人工智能需要多少计算能力也不清楚。

今年早些时候发布的中国DeepSeek-R1 模型能够与美国模型相媲美,但成本显然只是其一小部分(尽管这一说法受到了质疑)。这导致一些研究人员认为,工程师现在可以创建更好的模型,而不必将其变得更大——这可能会降低数据中心的计算需求。

相比之下,如果生成式人工智能变得更加高效,人们很可能会更多地使用它——这一现象被称为杰文斯悖论,以 19 世纪英国经济学家威廉·斯坦利·杰文斯 (William Stanley Jevons) 命名。他观察到,燃煤技术的效率提高加速了其采用,抵消了任何能源节约。

十年后,生成式人工智能的使用可能会按计划增长,库尔佩珀县目前计划建设的所有数据中心都将满负荷运行。也有可能,生成式人工智能将成为一种相对小众的技术,一些数据中心会因为缺乏需求而关闭。

“如果你自信地做出预测,但又存在巨大的不确定性,那么就会有人遭受损失,”库米说道。