
作者|宋思杭
编辑|苗正卿
头图|视觉中国
5 月中,关税暂停的 90 天窗口期,一场围绕算力核心资源的争夺战骤然升温。
" 服务器价格波动剧烈,前段时间每台价格已上浮 15%-20%。随着关税暂停,我们计划恢复原价销售。" 某南部地区芯片供应商向虎嗅透露。
与此同时,市场供给端也迎来新变量。虎嗅独家获悉,英伟达 Hooper 系列高端产品与 Blackwell 系列已悄然现身国内市场,前者的现身时间点大约在 2024 年 9 月,而后者就发生在最近。华锐智算相关高管表示," 不同供应商的获取货源渠道都各不相同。" 而这背后的复杂供应链网络无从探寻。
(虎嗅注:从 2023 年 10 月 17 日开始,华盛顿方面分阶段叫停了英伟达对华出售的芯片,包括 A100、A800、H800、H100、H200;近期 Hooper 系列最后一张能够对华出售的 H20 也列入到限制出口名单)
其中,英伟达 Hooper 高端系列通常指 H200,是 H100 芯片的升级版,前者比后者价格仅高出二十几万,但效率却高出 30%。而 Blackwell 系列属于英伟达的高端系列,其中 B200 价格高达 300 多万,也是目前 " 流通受限 " 最严的产品,其流通路径更为隐秘。这两款均用于大模型预训练,而 B200 更是 " 一卡难求 "。
回溯时间线,2024 年 4 月,一张黄仁勋与 OpenAI CEO 奥特曼(Sam Altman)、联创布罗克曼(Greg Brockman)的合影流传在推特上。这张合照背后是 H200 首批产品的关键交付节点——英伟达 CEO 黄仁勋亲自送货上门,而 OpenAI 正是 H200 的第一批用户。
短短 5 个月后,大洋彼岸就传来了 H200 的货源消息。如今,国内已有供应商具备每周 100 台 H200 服务器的供应能力。据该供应商透露,随着 H100 停产,市场需求正加速向 H200 转移,目前掌握 H200 货源的供应商不超过十家,供需缺口进一步拉大。
" 现在市场上最缺的就是 H200,而且据我所知,有一家云厂最近正在各处找 H200。" 一位从事算力行业 18 年的老玩家告诉虎嗅,他们长期为百度、阿里、腾讯、字节供应算力服务。
在这场算力军备赛中,交易链条笼罩着神秘面纱。某国内头部算力供应商表示,行业通行的算力计价规则是,合同中仅标注算力单位 "P",将服务器交易转化为抽象的算力交易。(虎嗅注:P 是算力的计算单位)比如在算力使用方与算力供应商进行算力交易时,并不会直接将卡的型号写进合同内,而是用多少 P 的算力来代替,也就是说在明面上并不会把具体的卡型号写进去。
深入产业链底层,隐秘的交易网络浮出水面。此前有媒体披露,部分中国经销商通过特殊采购渠道,经多层转售与包装,实现服务器 " 曲线上市 "。而虎嗅进一步了解到,还有部分经销商另辟蹊径,借助第三方企业,通过将模组嵌入产品的方式,获取服务器。
在暗流涌动的产业链背后,国内算力产业的发展也正在呈现新的走向。
智算泡沫从何而来?
2023 年末,来自大洋彼岸的 " 英伟达禁令 ",如同一块巨石投入平静的湖面,一场围绕算力核心资源的暗战随之打响。
最初的几个月,市场呈现出一种原始的混乱与躁动。暴利的诱惑之下,一些嗅觉敏锐的个体开始铤而走险。" 当时市场上充斥着各种背景的‘供应商’,有海外归来的留学生,也有一些消息灵通的个人倒爷," 一位不愿具名的行业人士回忆道," 他们的流转方式相对简单粗暴,虽然交易依然隐秘,但远未形成后来那种层层转包的复杂链条。"
这些早期的 " 拓荒者 " 们,利用信息差和各种非正规渠道,将英伟达高端显卡,辗转供给到市场。由此,显卡的价格自然水涨船高。据一些媒体报道,在他们当中,一些个人供应商甚至将英伟达 A100 显卡标价至 12.8 万元人民币,远超其约 1 万美元的官方建议零售价。更有甚者,有人在社交媒体平台中手持 H100 芯片,称其单片售价高达 25 万元人民币。在当时,上述的种种行为和姿态可以说近乎炫耀式的。
在这种隐秘流通之下,一些大型算力供应商已经开始具备类似的交易网络渠道,而由此引发的智算热潮也在同时期兴起。2022~2024 年间,多地抢建智算中心。有数据显示,单单是 2024 年,智算中心项目就超过了 458 个。
然而,这场轰轰烈烈的 " 炒卡及智算热潮 " 并未持续太久。到了 2024 年末,尤其是在 DeepSeek 等国产大模型以其高性价比横空出世后,一些单纯依赖 " 囤卡居奇 " 或缺乏核心技术支撑的算力供应商发现,他们的故事越来越难讲下去了。智算的泡沫,也逐渐出现破裂迹象。
有数据统计,2025 年第一季度,中国大陆共有 165 个智算中心项目出现新动态,其中高达 58%(95 个)的项目仍处于已审批或筹建状态,另有 33%(54 个)处于在建或即将投产状态,而真正实现投产或试运行的,仅有区区 16 个,占比不足 10%。
当然,呈现出泡沫破裂迹象的不只是国内。近半年来,Meta、微软等都传出暂停部分全球数据中心项目。泡沫的另一面是令人担忧的低效与闲置。
有行业人士告诉虎嗅," 目前智算中心的点亮率不足 50%,国产芯片由于性能短板,根本无法用于预训练。而且有些智算中心使用的是相对落后的服务器。"
这种 " 有卡用不起来 " 的现象,被行业人士归结为 " 结构性错配 " ——并非算力绝对过剩,而是有效的、能满足高端需求的算力供给不足,同时大量已建成的算力资源因技术代差、生态不完善或运营能力不足而无法被充分利用。
然而,在喧嚣与隐忧并存的智算版图上,科技巨头们却展现出截然不同的姿态。
据报道,字节跳动计划在 2025 年在 AI 基础设施上投入超过 123 亿美元(约合 892 亿元人民币),其中 400 亿元预算将用于在中国采购 AI 芯片,另有约 500 亿元计划用于购买英伟达芯片。对此,字节方面向虎嗅回应称,消息不准确。
同样在 AI 方面大手笔投入的还有阿里。CEO 吴泳铭在 2 月 24 日公开宣布,未来三年阿里巴巴拟投入 3800 亿元建设 AI 基础设施。这一数字甚至超过了过去十年的总和。
但面对大手笔采购,供给端的压力也在突显。" 市场的供货都来不及供给大厂们,好多公司签约了都交不出货。" 一位智算供应商的销售人员对虎嗅说道。
对比之下,上述的智算泡沫与如今大厂这种大手笔地投入 AI 基建,似乎形成鲜明对比:一边是以 A 股为首的算力供应商纷纷叫停大型智算项目,另一边大厂则在积极投入 AI 基建。
而这背后的原因并不难理解。因为智算急剧降温的时间点恰出现在 DeepSeek 前后。从今年开始,再也没有人提出 " 百模大战 " 相关概念了,DeepSeek 戳破的是训练需求的泡沫。如今还留在牌桌的只剩下大厂和个别 AI 模型公司。
对此,常垒资本管理合伙人冯博也对虎嗅说道," 当训练不是百花齐放的时候,那真正有训练能力和资格的人还会继续买卡训练,比如阿里和字节,而那些没有能力做训练的人就曲终人散了,这些人手里的算力就变成了泡沫。"
被退租的算力
任何 " 泡沫 " 的诞生都根植于人类对稀缺性的非理性想象。炒茅台和囤算力的人本身并非是茅台爱好者、算力消纳方,而都共同有着投机心理。
截止到 2024 年底、2025 一季度,飞利信、莲花控股、锦鸡股份等多家公司又相继终止了数亿元的算力租赁合同。与此同时,有算力供应商告诉虎嗅," 在算力租赁的生意里,退租是常有的事。"
这些终止租赁的企业并非真正的算力需求终端。随着 DeepSeek 引发的行业震荡,AI 行业泡沫逐渐破裂,众多算力供应商不得不直面算力过剩难题,四处寻觅稳定客源,探索新的算力消纳路径。
虎嗅在调查中发现,一位算力供应商创始人的名片上,除了三家智算、云计算领域的企业,还赫然印着一家投资公司。进一步深挖发现,该投资公司的被投项目涵盖一家机器人公司与一家专注大模型和云系统研发的企业。该创始人向虎嗅透露," 这两家被投企业的全部算力需求,均由自家的算力供应体系来满足;而且被投企业通常会以市场低价购买自家供应的算力。"
实际上,在智算产业里,像智算 + 投资绑定的形式绝非孤例。对于不少算力供应商而言," 这是目前消纳卡很好用的方式,只不过没有被摆到台面上。" 冯博对虎嗅表示。
不过,在上述的故事中,这是一种 " 垄断式 " 的算力消纳路径,即算力供应商通过投资锁定算力需求,并直接满足被投项目的全部算力需求。但并非只有这一种方式。
冯博认为,还有一种模式是," 算力供应商以 LP 身份切入产业基金,构建闭环式算力需求链条的模式值得关注。"
具体而言,该商业模式呈现出资本联动特征:算力供应商 A 作为潜在有限合伙人(LP),与产业基金 B 达成合作意向。在 B 基金的投资版图中,AI 应用厂商 C 作为被投企业,其业务发展对算力资源存在刚性需求。此时,A 通过战略投资 B 基金,间接绑定 C 公司未来的算力采购需求,构建起 " 资本投入 - 算力采购 " 的闭环。
若交易落地,A 公司将凭借 LP 身份获得优先服务权,成为 C 公司算力采购的首选供应商。这种模式本质上形成了资金的循环流动 —— A 公司对基金 B 的出资,最终通过 C 公司的算力采购回流。

" 这不是一种主流方式,但却是一种还比较好用的方式。" 冯博坦言。
泡沫快破了,然后呢?
" 谈智算泡沫就不能只谈算力,它是一个产业链的问题,想让算力用起来,需要把断掉的点串起来,现在这条产业链还并未形成闭环。" 一位深耕行业多年的算力供应商首席营销官向虎嗅精辟地指出了当前智算产业的核心症结。
进入 2025 年上半年,AI 领域一个显著的趋势是,曾经被各大 AI 公司挂在嘴边的 " 预训练 " 一词,其热度正逐渐被 " 推理 " 所取代。无论是面向广阔的 C 端消费市场,还是赋能千行百业的 B 端企业级应用,推理需求的增长曲线都显得异常陡峭。
" 不妨做一个简单的推演," 一位行业分析人士估算道," 以目前市场上主流 AI 应用的体量来计算,如豆包、DeepSeek 等为例,假设其每个活跃用户平均每日生成 10 张图片,这背后所牵引的算力需求,便可能轻易达到百万 P 级别。这仅仅是图像生成这一单一场景,若叠加文本、语音、视频等多模态交互,其需求量级更是难以估量。"
这还仅是 C 端用户的推理需求。对于 B 端用户,推理需求更是海量。华锐智算某高管告诉虎嗅,车厂建设智算中心都是万 P 规模起步," 而且我们的客户中除了大厂,有最多算力需求的就是车厂。"
然而,再将海量的推理需求与算力泡沫联想到一起,故事就显得异常荒谬。为什么这么多的推理需求还是会产生算力泡沫?
某算力供应商对虎嗅表示,像这样海量的推理需求,需要智算服务商通过工程化技术对算力进行优化,比如压缩起跑时间、提高存储量、缩短推理延迟、提高吞吐量和推理精度等等。
不仅如此,上文提到的供需错配问题,还有一大部分是来自于芯片问题。对此,有行业知情人士向虎嗅表示,一些国产卡和英伟达的差距还是比较大,它们自身表现发展不匀,同一品牌即使堆再多的卡短板依然存在,这就导致了单一集群无法有效完成 AI 的训练和推理。
这种‘短板效应’意味着,即便通过大规模堆叠芯片来构建算力集群,如果短板问题得不到有效解决,整个集群的综合效能依然会受限,难以高效支撑 AI 大模型的复杂训练与大规模推理任务。
事实上,算力层面的工程挑战和芯片瓶颈固然严峻,但许多深层次的算力需求未能得到有效满足,其真正的 " 断点 " 往往出现在算力层之上的应用生态,特别是 L2 层(即针对特定行业或场景的)垂类模型的严重缺口。
在医疗产业就有这样一个需要填补的巨大 " 窟窿 ",人才虹吸效应是国内医疗体系里长期被诟病的结构性问题,优秀医生都集中在一线城市的三甲医院里。但当业界寄希望于医疗大模型实现优质医疗资源下沉时,一个更根本的挑战浮出水面:如何构建可信医疗数据空间?
因为想要训练出具备全病程诊疗能力的垂类大模型,数据是关键前提。但问题是,必须要有全病程、全年龄段、全性别、全地域的海量数据才能在大模型里形成知识。而现实是医疗数据开放率不足 5%。
某三甲医院信息科主任透露,其医院每年产生的 500TB 诊疗数据中,真正能用于 AI 训练的脱敏结构化数据不足 3%。更严峻的是,占疾病图谱 80% 价值的罕见病、慢性病数据,因其敏感性长期沉睡在各医疗机构的 " 数据孤岛 " 中。
而像这样的断点无法解决,产业链就无法形成闭环。算力需求自然也就得不到满足,显然,这显然已经远远超出了传统意义上那些仅仅提供 " 卡和电 " 的算力基础设施供应商所能独立应对的范畴。
不过,如今市场已经有一批新型的智算服务商正悄然崛起。这些企业不再将自身定位局限于单纯的硬件提供或算力租赁,他们还能更组建专业的算法团队和行业专家团队,深度参与到客户的 AI 应用开发与优化过程中。
与此同时,面对各种资源错配和算力利用率等问题,各地其实也在根据当地产业需求出台各种各样的算力补贴政策,其中," 算力券 " 作为一种直接降低企业使用算力成本的补贴方式。只是对于当前阶段的中国智算产业而言,单纯的政策 " 急救药 " 恐怕已难以从根本上扭转局面。
如今,智算产业所需要的是 " 造血式 " 培育生态。
还没有评论,来说两句吧...