HAMi Meetup 回顾 - 海光信息|DCU 软件虚拟化从基础到实践
这场分享的核心价值在于把“国产卡虚拟化”从概念变成工程默认:驱动侧开箱即用让门槛下降,而与 HAMi 的调度、注解、监控协同,则让 vDCU 资源可以被真正纳入 Kubernetes 的统一资源管理体系。随着共享算力、更多切分形态和更强监控逐步成熟,vDCU 不只是“能切”,更会成为可运营、可规模化交付的算力产品形态。上海密瓜智能科技有限公司专注于异构算力调度与统一管理,致力于为全球客户提供高效、
国产算力在很多企业里已经不是“要不要用”的问题,而是“怎么更好用”的问题。对用户而言,最大的阻力往往不在硬件,而在软件交付与资源形态:虚拟化能力需要额外授权、需要复杂的配置链路,或者只能整卡使用导致资源浪费。而当进入 Kubernetes 场景后,虚拟化的切分、绑定、监控又会和调度体系耦合在一起,用户既希望“别改业务代码”,也希望“别引入一套重型虚拟化栈”。
此外,虚拟化并不只有“固定切分”一种形态——推理类负载经常更希望只限制显存,而让算力在潮汐下共享抢占,如果平台无法提供这种能力,资源利用率与业务体验都会受影响。
解决方案和结果
驱动层虚拟化能力与 vDCU 基本管理方式
来自海光信息的研发工程师 王忠勤 给出的路径是“先把虚拟化变成驱动层的默认能力,再把它接入云原生调度体系”。在 DCU 上,vDCU 的软件虚拟化能力由驱动侧提供,用户安装驱动后即可使用 hy-smi virtual 这一组子命令完成 vDCU 的创建、更新与销毁,不需要额外软件授权流程,并且默认开启虚拟化支持。
在切分模型上,DCU 允许用户按需指定切分数量、每个 vDCU 的计算单元与显存容量;如果只指定计算单元数量,则默认平分显存;如果只指定显存,则默认平分计算单元;如果两者都不指定,则默认算力与显存均分。由于硬件特性约束,单物理卡默认最多切分 4 个 vDCU,这一限制已被纳入后续与社区协同的演进计划。
显存固定、算力共享的 vDCU 使用模式
针对推理类负载的需求,引入了“只声明显存、算力共享”的使用模式。当用户希望固定分配显存而不固定切分计算单元时,可以将 vDCU 置为共享模式,使每个 vDCU 都可使用整卡的 DCU 资源,并通过竞争方式使用算力。
与此同时,DCU 在企业场景中提供了模板化封装,用户可以预制 vDCU 模板;在容器环境下,通过配置文件映射即可完成 vDCU 的容器化使用。
与 HAMi 的调度协同、设备发现与监控支持
在 Kubernetes 协同层面,王忠勤介绍了 DCU 与 HAMi 的配合方式:当 HAMi 调度成功后,会为容器打上相应的标签或注解,DCU云原生插件侧兼容这些注解信息以完成 vDCU 的切分与绑定。同时,设备插件支持在集群内发现 DCU / vDCU 资源。
在监控方面,相关 Exporter 可输出 vDCU 数量、温度、频率、使用率、已用显存、可切分显存余量以及可切分计算单元余量等指标。计划部分还提到与 HAMi 联动的后续工作方向,包括突破单卡4 vDCU 切分限制、多容器共用同一 vDCU、不同 vDCU 间通信、SR-IOV 与 Pass-through 方案、资源注册多样化以及更丰富的监控指标。
结语
这场分享的核心价值在于把“国产卡虚拟化”从概念变成工程默认:驱动侧开箱即用让门槛下降,而与 HAMi 的调度、注解、监控协同,则让 vDCU 资源可以被真正纳入 Kubernetes 的统一资源管理体系。随着共享算力、更多切分形态和更强监控逐步成熟,vDCU 不只是“能切”,更会成为可运营、可规模化交付的算力产品形态。
上海密瓜智能科技有限公司专注于异构算力调度与统一管理,致力于为全球客户提供高效、灵活的算力解决方案。公司以“让异构算力因开源而好用”为使命,愿景是“构建全球领先的算力调度生态,赋能AI产业高效落地”。发起的CNCF 开源项目 HAMi,是唯一专注异构算力虚拟化的开源项目,通过灵活、可靠、按需、弹性的 GPU 虚拟化提升资源利用率,助力AI 时代算力效率提升。
邮箱:info@dynamia.ai
更多推荐


所有评论(0)