今年3月,国家统计局副局长毛盛勇在新闻发布会上说了一个数字:
中国3月份日均词元(Token)调用量,突破140万亿。
很多人看到「140万亿」就过去了。
但这个数字背后有一个很少人认真想过的问题:这140万亿个词元,是怎么跑出来的?它们消耗的是什么?谁因为这件事,真正赚了钱?
140万亿,到底有多大?
做个换算:如果把140万亿个词元,换成人说「你好」这两个字——
每秒说一句,不眠不休,需要连续说440万年,才能说完一天的调用量。
这不是修辞。这是中国AI产业在一天之内,真实产生的计算规模。
而且这个数字还在涨。国家统计局数据显示,3月份较2025年底增长超过40%。
问题来了:如此规模的计算,需要什么来支撑?
跑出一个词元,需要什么?
▍三层基础设施,缺一不可
把一个AI请求从头到尾拆开看,你会发现它需要三样东西:
第一层是算力。AI模型的每一次推理,都要在GPU或NPU芯片上完成。2026年国内主流AI平台,算力来源以英伟达H系列芯片为主,华为昇腾910B的比例在持续提升。3月起阿里云部分大模型服务宣布涨价,直接原因之一就是算力成本上升(来源:新浪财经)。
第二层是电力。数据中心是典型高耗能设施。一个中等规模(10MW)的AI数据中心,年耗电约8760万度。按2026年均价约0.6元/度计算,仅电费一项,每年超过5000万元(以上为据公开数据推算,实际因地区电价和用能合同有所差异)。
第三层是网络。每一个请求的发出和响应,都要通过光纤完成传输。你在手机上问AI「今天天气怎么样」,这个问题和答案,走的是几千公里的光纤。
▸ 日均token调用量:140万亿(国家统计局,2026年3月新闻发布会)
▸ 较2025年底增速:超40%(同一来源)
▸ 阿里云大模型涨价:2026年3-4月,部分模型单价上调20-30%(新浪财经)
▸ 国内AI算力格局:英伟达系为主,华为昇腾占比持续提升(据公开市场数据)
▸ 数据中心PUE参考范围:国内约1.35-1.5(来源:工信部相关报告)
三层基础设施,谁在赚钱?
▍算力层:芯片是核心
英伟达是全球AI算力市场最大的受益者,2025财年数据中心收入475亿美元,同比增长142%(来源:英伟达2025财年年报)。这是美股,但其芯片出口对中国AI产业的计算能力有直接影响。
华为昇腾:国内算力国产替代的核心方向。910B性能已接近A100水平,在外部供应受限的背景下,采购昇腾的意愿持续上升。
寒武纪:国产AI芯片的另一主要参与者,2025年收入同比增速超100%(来源:公司年报),但规模与头部仍有差距。
▍电力层:数据中心是新型用电大户
AI数据中心的用电需求,是近两年电力行业最确定性的新增量。
液冷系统是重要的配套方向:据业内公开资料,高密度数据中心引入液冷方案后,PUE(能源使用效率)可从1.4降至1.2以下,节能效果显著(各厂商技术白皮书,具体数值因部署方案有差异)。英维克、申菱环境等液冷方案商的订单随AI算力增长而持续扩大。
▍网络层:光纤是信息的血管
每一个AI请求的收发,都依赖光纤网络。长飞光纤、亨通光电、中天科技是国内主要光纤供应商,2025年整体订单保持快速增长(来源:各公司2025年年报)。
养活AI的,不只是程序员,还有卖光纤、卖芯片、供电的人。
下一个十倍,在哪里?
140万亿已经很大。但这只是起点。
目前调用AI最多的,是大企业和少数高净值用户。真正的规模化爆发,要等AI成本降到中小企业也用得起的临界点。
从行业经验规律来看,主流大模型单位token成本每6至12个月下降约50%(综合多家券商及研究机构报告)。当价格降到某个临界点,「全员用AI」的场景会在中小企业里集中爆发,带来整条产业链的新一轮增长。
140万亿词元的背后,有三条被低估的产业链: 算力、电力、光纤。它们的增长,不比AI本身慢。
理解AI产业,不能只看大模型的参数。看看它吃掉了多少电、用了多少芯片、铺了多少光纤——那里才是真正的基础底座。
作 者 | 知予
本文仅为信息分享与行业分析,不构成任何投资建议、投资分析意见或交易邀约。市场有风险,投资需谨慎。任何人依据本文内容作出的投资决策,风险与盈亏自行承担,作者及发布平台不承担任何法律责任。
�� 信息来源
1. 国家统计局:2026年3月新闻发布会,副局长毛盛勇发言,日均token调用量数据
2. 新浪财经:阿里云大模型服务涨价相关报道(2026年3-4月)
3. 英伟达2025财年年度报告(数据中心收入)
4. 长飞光纤、亨通光电、中天科技2025年年报
5. 工信部:数据中心能耗及PUE相关政策文件
6. 寒武纪2025年年报