阅读《智能体构建指南》,了解我对 AI 原生基础设施与智能体运行时的工程思考。

正式加入 Dynamia 密瓜智能,开启 AI 原生基础设施新征程

加入 Dynamia 密瓜智能,出任开源生态 VP,负责 AI 原生基础设施生态建设,推动算力从硬件消耗走向核心资产。

算力治理是 AI 规模化落地的关键瓶颈,从硬件消耗到核心资产,这条长期被低估的路径需要被重新定义。

图 1: Dynamia.ai 密瓜智能
图 1: Dynamia.ai 密瓜智能

新的起点

我近日正式加入 Dynamia 密瓜智能,出任 开源生态 VP,负责公司在开源、技术叙事与 AI 原生基础设施(AI Native Infrastructure)生态方向的长期建设。

为什么选择 Dynamia

我选择加入 Dynamia,并非因为这是一家试图“解决 AI 一切问题”的公司,而恰恰相反,是因为 Dynamia 高度聚焦于 AI 原生基础设施中一个无法回避、却长期被低估的核心问题:算力,尤其是 图形处理器(GPU),正在从“技术资源”演变为一种需要被精细化治理和经济化管理的基础设施要素。

在长期的云原生、分布式系统与 AI 基础设施(AI Infra)实践中,我逐渐形成了一个清晰判断:随着大语言模型(LLM, Large Language Model)和 AI 代理(AI Agent)进入规模化落地阶段,真正限制系统扩展性与可持续性的瓶颈,已不再只是模型能力本身,而是算力如何被计量、分配、隔离、调度,以及如何在系统层面形成可治理、可核算、可优化的运行机制。从这一视角看,AI 基础设施的核心挑战,本质上正在演变为一个“资源治理与 Token 经济”问题。

关于 Dynamia 与 HAMi

Dynamia 密瓜智能是一家专注于 AI 原生基础设施的科技公司,植根开源基因,通过技术创新驱动异构算力效率跃升。公司主导的开源项目 HAMi(Heterogeneous AI Computing Virtualization Middleware)是 云原生计算基金会(CNCF)沙箱项目,提供 GPU、NPU 等异构设备的虚拟化、共享、隔离和拓扑感知调度能力,已被 50+ 企业和机构广泛采用。

Dynamia 的技术路线

在这一背景下,Dynamia 所坚持的技术路线——从 GPU 这一 AI 系统中最昂贵、最稀缺、也最缺乏统一抽象的一层 入手,将算力视为一种可以被度量、被切分、被调度、被治理,乃至被“Token 化”进行精细化核算与优化的基础资源——与我对 AI 原生基础设施的长期判断高度一致。

这条路径在短期内并不以“模型能力”或“应用创新”为卖点,也并不容易被简单包装成故事;但在算力成本持续上升、异构加速器成为常态、AI 系统走向多租户与规模化运营的趋势下,这类基础设施层面的能力,正逐渐成为 AI 体系能否成立与扩展的前提条件。

未来工作重点

作为 Dynamia 的开源生态 VP,我将重点投入在 AI 原生基础设施的技术叙事、开源生态建设与全球开发者协作 上,推动算力从“被消耗的硬件资源”,走向 可治理、可计量、可优化的 AI 基础设施核心资产,为下一阶段 AI 系统的规模化与可持续演进奠定基础。

总结

加入 Dynamia 是我职业道路上的一个重要节点,也是我对 AI 原生基础设施长期看好的一次实际行动。算力治理不是短期能见效的热点,但却是 AI 规模化落地绕不开的基础设施命题。我期待与全球开发者一起,在这条长期被低估的路径上探索、建设、落地。

参考文献

宋净超(Jimmy Song)

宋净超(Jimmy Song)

AI Native Infra 布道师

文章导航