谭寅亮:AI的第四个要素:电力,正在决定下一轮算力竞争的上限
现在,华尔街的投资人聊起人工智能(AI),不是在聊“模型参数”或“GPU供给”,而多的是在聊“电网能不能扛得住”。过去两年,生成式AI将计算从一种“偶发的大任务”变成了“全天候的高频调用”,而电力恰恰是这类新型负荷最硬的约束。
于是,一项新的判断正在浮出水面——如果说数据、算法与算力构成了AI的前三要素,那么今天的第四要素是电力。更进一步说,电力不再只是损益表里的成本项,而是决定AI扩张速度、空间分布乃至巨头生死的物理上限。
美国正用现实给全球上一堂昂贵的物理课。北美最大的电网运营机构PJM,正被数据中心的新增负荷推向压力边缘。作为覆盖美国13个州、服务约6700万人的关键枢纽,PJM一直是美国电力系统的“心脏”。
然而,这颗心脏正面临“心律失常”。在长期需求基本平稳的背景下,PJM预计未来十年用电需求年均增长4.8%。这个数字在电力行业,意味着电网的运行逻辑被彻底改变:从相对可预测的平滑曲线,转向了由数据中心驱动的、更加陡峭且极难调度的负荷上升通道。
更直观的冲击来自美国最典型的数据中心集聚区——北弗吉尼亚,当地电力公司Dominion Energy收到的数据中心接入申请已超过40GW,这足以供至少1000万户家庭使用,接近弗吉尼亚电网既有容量的两倍。当海量需求集中爆发在同一片地理区域时,问题早已不是“美国有没有电”,而是这片区域的输电通道、变电容量、配电系统,能不能在物理上把电送到机房。
现在的美国电网,就像快要散架的老旧机器。数据显示,美国目前最高用电负荷约820GW,而备用率仅剩17%,处于极度紧平衡状态。更重要的是存量资产的老化,据统计,60%的发电机组运行时间超过20年,约250GW的设备机龄已近50岁,即将面临强制退役。一边是AI产生的巨大需求,如OpenAI甚至提出到2033年要建设250GW的数据中心,这相当于给整个美国电网增加30%的负荷;另一边是步履蹒跚的老旧电网和漫长的基建周期,新建煤电、核电通常需要5至6年。如此供需错配,最终引发了民众担忧。当科技巨头为了训练模型而挤占民用电力资源,导致电费飙升甚至停电风险时,技术问题就变成了社会问题。
面对潜在的失控风险,监管开始明显收紧。近日,美国政府释放出一项具有方向性意义的政策信号:新建的大规模 AI 数据中心将被要求具备自供电能力,以避免人工智能的发展推高普通居民和企业的用电成本。这一政策背后的考量并不复杂。随着 AI 算力需求快速膨胀,如果继续允许科技巨头无序接入公共电网,美国现有的电力系统在未来数年内将面临严重压力,甚至出现结构性瓶颈。换言之,AI 的快速扩张,不能以公共电力系统“兜底”为前提。
在这一背景下,拥有充足现金流的大型科技公司,角色正在发生变化:它们不再只是电力的终端消费者,而被迫走向自建电源、签署长期电力采购协议,或直接投资发电与能源基础设施。这意味着,AI 产业的竞争边界,正在从算力与模型,延伸至能源与基础设施层面。
对于微软、谷歌、亚马逊等这些科技巨头来说,不想被断电,摆在面前的大致有三条路。
第一条路是燃气发电,这是目前最快、最稳的方案。然而,核心设备燃气轮机的产能已被锁死。GE Vernova和西门子的燃气轮机订单已经翻倍。特别是GE Vernova,其产能排期已经排到了2030年。
第二条路是重启核能与SMR(小型模块化反应堆),这是硅谷最喜欢的叙事,并都在疯抢核电资源。亚马逊直接买下了与三里岛核电站相连的数据中心园区,并计划重启部分退役机组。虽然核能清洁、稳定,但其核电审批与建设周期往往以“五年”甚至“十年”计,对于按“周”迭代的AI模型来说,远水解不了近渴。
第三条路则是固体氧化物燃料电池(SOFC),这是目前最值得关注的黑马。SOFC能直接将天然气转化为电能,效率高达60%以上,且建设周期仅需1至2年,非常适合作为数据中心的分布式电源。美国的Bloom Energy公司已经因此拿到了Meta和谷歌的大单,股价随之暴涨。在
AI的尽头是能源,能源的核心是设备。当电力成为关键变量,AI产业链的叙事也会随之改写。过去市场更关注芯片、服务器、云服务;现在,一条从电厂到机柜的链条正在被重新定价。对于AI数据中心而言,真正的瓶颈往往出现在并网、输电、变电、配电这些环节。变压器、开关设备、继电保护与调度自动化系统,原本属于基础设施的常规配置,如今成为决定数据中心交付速度的关键。
再往机房内部看,UPS、电力电子、PDU、母线槽、电能质量治理、备用电源与储能系统的重要性显著上升,因为它们共同决定了“高功率密度负荷能否稳定运行”。与此同时,冷却系统与供配电深度耦合,液冷的普及不仅改变散热方式,也会改变机房的电力架构与运维方式。换句话说,AI基础设施正在更像一套“数字工业系统”,而不是传统意义上“放几排服务器”的信息化项目。
得益于我国拥有全球最完整的电力装备与电力电子产业链,2024年中国变压器对美出口增长了44%。随着美国本土缺口从89GW扩大至182GW(据券商保守估算,对应投资超千亿美元),全球买家不得不将目光投向东方。
此外,在数据中心内部的“最后一米”供电上,技术路线也在发生革命。英伟达最新白皮书明确指出,为了适应Blackwell等新一代芯片,800V直流架构(HVDC)将是终极方案。而支撑这一架构的核心部件——固态变压器(SST),目前全球能做的企业屈指可数,中国企业早已在此布局。当美国急需“物理基建”来承载AI之梦时,中国制造的工程交付能力和规模效应,成了全球产业链中无法绕开的一环。
有人会说,计算能效不是一直在提升吗?这就必须提到库梅定律(Koomey’s Law)。库梅定律指出,计算能效长期呈指数级提升,经典说法是单位能耗可完成的计算量大约每18个月翻倍。 在很长一段时间里,这条规律帮助技术行业用更少的电完成更多的计算,使得“数字化升级”与“能源约束”之间的矛盾被推迟。然而,生成式AI正在改变需求曲线的形状。过去,计算需求更多来自搜索、推荐、交易等相对“稀疏”的请求;今天,AI把请求拆成细粒度的token流水,并把这种流水嵌入客服、办公、内容生产、研发、工业质检、视频生成等越来越多的场景。即便每一次计算更省电,总调用量的跃迁仍会把总能耗推上去。外部研究机构也在反复上修电力需求预期,例如关于美国到2030年前用电增长的预测中,“数据中心”几乎总是最重要的驱动因素之一。 这意味着,库梅定律并没有失效,但它带来的节能红利正在被token洪水“用完”,电力重新回到AI扩张的硬约束位置。
视野回到国内,很多人认为中国“电多、不缺”,这可能是一个危险的误判。如果中国在AI领域的投资规模追随美国,到2030年,国内数据中心同样需要新增100至150GW的负荷。届时,国内电力投资将重回紧张周期,必须新建大量的火电、核电与储能设施。
PJM的案例给中国的最大启示,是要把AI当成“新型工业负荷”来规划,而不是把算力中心当作孤立的互联网项目。AI负荷的集中爆发,会同时触发可靠性、价格与协同治理的压力;而在跨州政策分歧更大的体系里,这种协同更难,PJM辖区内不同州在能源转型与新电源建设上的立场差异,就让问题更复杂。 因此,真正的前瞻不是等瓶颈出现再补课,而是提前把并网扩容、变电站规划、需求响应、自备电与储能、峰谷管理等机制设计为可复制的“基础设施制度包”,让AI扩张从一开始就走在可控的轨道上。
归根结底,AI时代会出现一个新的衡量尺度:每度电能产出多少“可用智能”。在移动互联网时代,我们谈DAU(日活)、用户时长、转化率;在生成式AI时代,电力将成为最底层的生产要素,直接决定智能产出的上限与边际成本。未来的算力竞争,将越来越像一场电力与基础设施的系统战。这不再是简单的“买几块卡”的游戏,而是谁能搞定燃气轮机、谁能签下核电站、谁能买到变压器、谁能更稳更经济地交付“可用电”。对于中国制造业来说,这可能是一次千载难逢的产业链重构机遇。AI的第四个要素,正在重新定价全球的工业资产。
作者系中欧国际工商学院决策科学与管理信息系统教授谭寅亮 (Tan, Yinliang)
来源|福布斯中文网

