算力治理是 AI 规模化落地的关键瓶颈,从硬件消耗到核心资产,这条长期被低估的路径需要被重新定义。

新的起点
我近日正式加入 Dynamia 密瓜智能,出任 开源生态 VP,负责公司在开源、技术叙事与 AI 原生基础设施(AI Native Infrastructure)生态方向的长期建设。
为什么选择 Dynamia
我选择加入 Dynamia,并非因为这是一家试图“解决 AI 一切问题”的公司,而恰恰相反,是因为 Dynamia 高度聚焦于 AI 原生基础设施中一个无法回避、却长期被低估的核心问题:算力,尤其是 图形处理器(GPU),正在从“技术资源”演变为一种需要被精细化治理和经济化管理的基础设施要素。
在长期的云原生、分布式系统与 AI 基础设施(AI Infra)实践中,我逐渐形成了一个清晰判断:随着大语言模型(LLM, Large Language Model)和 AI 代理(AI Agent)进入规模化落地阶段,真正限制系统扩展性与可持续性的瓶颈,已不再只是模型能力本身,而是算力如何被计量、分配、隔离、调度,以及如何在系统层面形成可治理、可核算、可优化的运行机制。从这一视角看,AI 基础设施的核心挑战,本质上正在演变为一个“资源治理与 Token 经济”问题。
关于 Dynamia 与 HAMi
Dynamia 密瓜智能是一家专注于 AI 原生基础设施的科技公司,植根开源基因,通过技术创新驱动异构算力效率跃升。公司主导的开源项目 HAMi(Heterogeneous AI Computing Virtualization Middleware)是 云原生计算基金会(CNCF)沙箱项目,提供 GPU、NPU 等异构设备的虚拟化、共享、隔离和拓扑感知调度能力,已被 50+ 企业和机构广泛采用。
Dynamia 的技术路线
在这一背景下,Dynamia 所坚持的技术路线——从 GPU 这一 AI 系统中最昂贵、最稀缺、也最缺乏统一抽象的一层 入手,将算力视为一种可以被度量、被切分、被调度、被治理,乃至被“Token 化”进行精细化核算与优化的基础资源——与我对 AI 原生基础设施的长期判断高度一致。
这条路径在短期内并不以“模型能力”或“应用创新”为卖点,也并不容易被简单包装成故事;但在算力成本持续上升、异构加速器成为常态、AI 系统走向多租户与规模化运营的趋势下,这类基础设施层面的能力,正逐渐成为 AI 体系能否成立与扩展的前提条件。
未来工作重点
作为 Dynamia 的开源生态 VP,我将重点投入在 AI 原生基础设施的技术叙事、开源生态建设与全球开发者协作 上,推动算力从“被消耗的硬件资源”,走向 可治理、可计量、可优化的 AI 基础设施核心资产,为下一阶段 AI 系统的规模化与可持续演进奠定基础。
总结
加入 Dynamia 是我职业道路上的一个重要节点,也是我对 AI 原生基础设施长期看好的一次实际行动。算力治理不是短期能见效的热点,但却是 AI 规模化落地绕不开的基础设施命题。我期待与全球开发者一起,在这条长期被低估的路径上探索、建设、落地。
