科技每日推送
2026-03-13
中国AI算力,真的不够用了。
从每天1000亿到180万亿,中国大模型的Token消耗量在两年内暴涨1800倍。
这不是预测,是正在发生的事。
数字不会说谎:
Token黑洞正在吞噬一切
OpenRouter平台的数据显示,2026年2月全球前十AI模型的Token总消耗量突破27万亿,其中中国大模型贡献了14万亿,占比超过50%。
更夸张的是增长速度:
MiniMax M2.5,2月Token消耗5万亿+,环比增幅197%。
Kimi K2.5,2月Token消耗4万亿+ 持续高增。
GLM-5,2月Token消耗2万亿+ 环比增幅158%。
MiniMax披露的数据更惊人:2026年2月,M2系列模型单日Token消耗量已达到2025年12月的6倍以上,其中编程场景的Token消耗增长超过10倍。
中国日均Token消耗从2024年初的1000亿,飙升至2026年2月的180万亿。
1800倍的增长,意味着什么?
意味着每一秒都有海量推理请求在涌向数据中心,意味着GPU芯片正在以极限状态运转,意味着算力供给的缺口正在以肉眼可见的速度扩大。
视频生成
成了算力短缺的"照妖镜"
如果你用过快手的可灵AI或字节的即梦AI,你会发现一个奇怪的现象:功能很强大,但处处受限。
• 免费用户每天只有6次生成机会
• 高峰期排队等待时间长达几十分钟
• 高画质视频必须付费,且价格不菲
为什么?因为视频生成是名副其实的"算力黑洞"。
生成一条10秒的1080p视频,消耗的算力相当于处理数千张高清图片。一位AI创作者算过账:用OpenClaw跑一天视频生成任务,轻松烧掉5000万Token。
快手的可灵AI技术领先,但高峰期"排队时间太长"成了用户吐槽最多的点。
字节的即梦AI被迫在"画质"和"速度"之间做取舍——出图快,但电影级质感不足。
本质上,这不是技术问题,是算力不够的问题。
当豆包在春晚期间因高频互动导致算力承压,不得不暂停视频通话功能时;当智谱AI因高并发请求被迫采取API限流措施时,中国AI算力短缺的残酷现实,已经藏不住了。
云厂商自己都不够用
外卖怎么卖?
更严峻的问题在云厂商端。
阿里云宣布三年投入3800亿元建设AI基础设施;字节跳动2026年资本开支传闻高达1600亿元;百度智能云在自研GPU云市场以40.4%份额占据第一。
这些天文数字背后,是一个尴尬的事实:云厂商自己的算力都不够用了。
高盛预测,中国云服务提供商的资本支出在2026年Q3将同比增长39%。为什么花这么多钱?因为客户需求旺盛到供不应求。
• 阿里云AI服务已渗透中国500强企业的53%
• 字节、阿里、腾讯的AI应用都在抢算力资源
• 自动驾驶公司排队等算力配额
• 金融、医疗、教育行业的AI部署需求爆发式增长
Coreweave公开表示:全球AI算力基础设施产能仅能满足约60%的需求。
当云厂商自己的AI业务(豆包、通义千问、混元)都在疯狂吞噬算力时,对外卖的算力还剩多少?
这就是为什么智谱AI在发布新模型的同时,宣布API价格上调30%-100%——官方解释很明确:"用户规模与调用量快速提升,公司需同步加大算力投入。"
1800倍增长背后
一场算力军备竞赛
摩根大通预测,中国AI推理Token消耗量将从2025年的超10千万亿,增长至2030年的约3900千万亿——增幅接近369倍。
而这还只是保守估计。
随着AI Agent的爆发,Token消耗的模式正在发生根本变化:
• 传统Chatbot一轮对话几百Token
• AI Agent执行一个任务,可能消耗数百万甚至上千万Token
• 自主调用、多轮推理、工具链协作——每一步都在烧钱
MiniMax CEO闫俊杰说:
"这是一个长期趋势的开端,而不是一次性的红利。"
当OpenClaw这类Agent工具累计Token消耗达到8.99万亿时,当中国大模型在全球Token消耗榜上霸榜前五时,算力短缺已经不是"会不会发生"的问题,而是"正在发生且会越来越严重"的问题。
结语:算力即权力
中国AI产业正在经历一场残酷的"算力洗牌"。
有算力的公司(字节、阿里、百度)可以继续扩张、迭代模型、抢占用户;
没算力的公司,要么被迫涨价,要么限流,要么在竞争中掉队。
视频生成受限、API价格上涨、服务频繁限流——这些只是表象。
本质是:当需求增长1800倍,而供给只能增长几十倍时,算力就成了最硬的通货。
谁能搞定芯片、谁能建数据中心、谁能拿到电力资源,谁就能在下一阶段的AI竞赛中活下去。
这不是技术竞赛,这是资源战争。
你的AI应用,今天排队了吗?
声明:本文由车市号作者撰写,仅代表个人观点,不代表网上车市。文中部分图片来源网络,感谢原作者。
竟然没评论,快去评论~~