截至2024年11月,全国已投运的智算中心项目近150个,在建和规划建设的智算中心项目近400个。

据浪潮人工智能研究院测算,我国智算中心平均算力使用率仅为30%。

据了解西部一座千卡规模的智算中心,上架率不足50%。即便已上架的服务器,实际利用率不足30%,而年运营成本则超过3000万元。

而在全国,这样的智算中心并不是个例。

图片

01

算力规划与需求脱节是算力资源闲置的深层原因之一。

一方面,初期在规划算力基础设施时,企业没有做好充分的市场调研和需求分析,对算力的实际需求规模和类型缺乏准确判断。

另一方面,部分企业盲目追求算力规模,忽视了自身业务场景对算力的实际适配性。

比如一些传统制造业企业,业务流程对算力需求主要集中在日常办公和简单数据处理,却耗费大量财力与时间建设智算中心。

图片

在算力资源应用层面,需求结构发生了变化。

前期算力服务商的算力资源以训练型GPU为主,配置千卡级大规模集群,主要面向AI大模型训练需求

但随着大模型开源化,DeepSeek普及和应用重心转向推理任务,如企业级 AI 助手、自动驾驶实时决策等,企业碎片化、低精度、低规模的推理需求成为主流。

大模型训练需要千军万马推理可小而美”。

训练阶段:像做精密的手表,必须用高精度工具,才能保证每个零件的尺寸、咬合完全准确,否则手表走不准。


大模型训练时,需要通过亿级数据反复调整参数(类似学生反复做题纠错),如果精度不够,计算误差会累积,导致模型学不会正确规律,比如把猫认成狗。

推理阶段:像用剪刀剪纸,普通剪刀就够了,不需要高精度手术刀。


模型已经 “学会了知识”,推理时只需要快速套用规律,哪怕精度低一点,结果也不会差太多。比如回答 “今天星期几”,精度低一点也能说对。

当下中小企业的需求主要围绕大模型的推理算力,这与服务商提供的训练型资源严重不匹配,导致高端GPU闲置,低端推理需求无法满足。

算力服务商运营能力受限,难以满足新需求。

部分算力服务商采用 “卖机柜、按卡计价” 的标准化服务,缺乏场景定制(如医疗合规集群)、工具链集成(预配置行业模型 / 开发环境)等高附加值能力。

但是中小客户对灵活性(短期租用)、成本敏感度(推理任务利润空间有限)、技术支持响应速度要求极高,部分算力服务商无法满足。

02

当前算力资源的闲置困局本质是技术爆发期的产业阵痛,供给端(硬件产能、投资热度)与需求端(应用渗透、场景成熟度)的演进速度不匹配,叠加产业链协作机制不完善所致。

破局关键在于:

NO.1

算力服务商

从堆规模、拼设备、卷价格转向场景定义算力,构建硬件-软件-服务的全栈运营服务,让算力真正解决企业问题。

NO.2

算力需求方

B 端企业(尤其是中小企业、传统行业)对算力的需求并非不存在,而是被技术门槛和使用复杂度所压制。

算力需求方应与算力服务商将模糊的算力问题转化为明确的算力需求,把“裸算力”需求转化为场景化解决方案。

如预置行业模型、简化接入接口、提供可视化工具平台等,让企业无需技术团队就能直接使用,实现短期激活算力需求。

NO.3

算力行业生态

以开源技术、算电协同及跨域融合机制打破技术断层,实现资源全域高效流转。

总结

算力资源必须与应用场景深度绑定。

算力资源是数字时代的能源,若脱离具体场景的业务逻辑、数据特征和决策需求,就会反复陷入资源闲置、低效消耗的困局。

只有嵌入业务场景的全流程,适配于企业业务需求,才能实现“成本中心”向“价值中心”的转化。

图片

而脱离业务场景的算力资源,本质是为了使用算力而购入算力,最终会因用不起来、用不对地方、用得不值等问题陷入闲置。

只有让算力成为场景业务流程的“有机组成部分”,才能实现 “算力投入→业务优化→价值创造→再投入” 的正向循环,这也是破解当前算力闲置困局的核心路径。

未来竞争焦点,不再是单纯的算力规模,而是谁能以更高效率算力解决实际问题。

更多推荐