加入 ArkSphere AI 原生社区 ,共建 AI 原生基础设施与智能体运行时。

AI 原生时代的 CNCF?Agentic AI Foundation 正式成立

解析 Agentic AI Foundation(AAIF)的成立背景、战略紧迫性、与 CNCF/CNAI 的差异及分工,以及其对 AI 原生时代的深远意义。

智能体生态的标准化与开放协作,已经不是锦上添花,而是 AI 原生时代能不能工程化落地的关键分水岭。

  • AAIF(Agentic AI Foundation) 的成立,是头部厂商在“智能体协议层”提前卡位的结果。
  • 真正的难点不在技术,而在组织如何从“人执行 + AI 辅助”迁移到“智能体执行 + 人监督”。
  • 智能体落地需要一整条分阶段 adoption path,而不是一堆协议和 demo。
  • CNCF 和 AAIF 是互补关系:前者管“智能体跑在什么基础设施上”,后者管“智能体之间怎么协作”。这恰好对应我在 ArkSphere 中构建的体系。

云原生的问题解决了,AI 原生的问题刚开始

过去十年,云原生靠 Kubernetes、Service Mesh、微服务等技术,把“应用如何在云上跑”这件事基本定型。 但 AI 原生的问题完全不同: 不是“怎么部署一个服务”,而是“系统里有多少行为可以交给智能体自己跑”。

CNCF 的 Cloud Native AI(CNAI)解决的是基础设施层问题: “模型训练 / 推理 / RAG 怎么在 Kubernetes 上规模化、安全地运行?”

而 AI 原生真正缺的是另一层: 智能体怎么协作、怎么访问工具、怎么治理、怎么被审计。

这正是 AAIF 想补的空档。

AAIF 的三件武器:协议 + 运行时 + 开发规范

AAIF 托管了三件来自创始成员的核心技术:

① Anthropic 的 Model Context Protocol(MCP)

https://github.com/modelcontextprotocol

一个“智能体系统调用接口”:

  • 统一定义智能体如何访问数据库、API、文件、外部工具;
  • 设计目标更像 AI 版 gRPC + OAuth;
  • 已被 Claude、Cursor、ChatGPT、VS Code、Microsoft Copilot、Gemini 等接入。

它不是最耀眼的技术,但可能会成为整个 Agentic 生态的 plumbing。

② Block 的 Goose 框架

https://github.com/block/goose

MCP 的参考运行时:

  • 本地优先、可组合的智能体 workflow 引擎;
  • 让企业可以先在小范围试点智能体,而不用押注特定厂商;
  • 是协议落地的工程模板。

③ OpenAI 的 AGENTS.md

https://agents.md

一个朴素但有效的规范:

  • 在项目仓库里放一份 AGENTS.md;
  • 写清楚编译步骤、测试、约束、上下文规则;
  • 所有“理解 AGENTS.md 的智能体”都能按同一套指令操作代码库。

让智能体的行为更可预测、更可审计。

为什么 AAIF 这么“着急”成立?这是一次标准层的抢跑

对比一下历史:

  • Kubernetes 前身 Borg 在 Google 内部跑了十几年,K8s 开源两年后才捐给 CNCF;
  • PyTorch 发布六年后才加入 Linux Foundation;
  • 而 MCP 从发布到被捐给 AAIF,只用了 1 年多

AAIF 不是“成熟技术进基金会”,而是提前把关键位置按住

原因很现实:

  1. 防止智能体生态碎片化 现在各种“工具调用协议”百花齐放,三年后很可能变成互不兼容的孤岛生态。
  2. 协议层比模型层更容易形成全球共识 模型竞争无法避免,但协议可以标准化、开源化,并避免厂商私有垄断。
  3. 地缘科技竞争的必然动作 把 Agentic AI 的底层行为标准放进 Linux Foundation,本身就是一种“公共化”,既是合作姿态也是战略布局。

AAIF vs CNCF:不是竞争,是两层拼图

CNCF 的角色:

“智能体工作负载跑在什么底座上?” Kubernetes、Service Mesh、可观测性、AI Gateway、RAG Infra,都在这一层。

AAIF 的角色:

“智能体怎么协作、怎么调用工具、怎么治理?” 协议、运行时、行为规范,都在这一层。

类比关系:

领域负责内容
AAIFAgentic Runtime 的语义层、协作层
CNCF/CNAIAI Native Infra 的资源层、执行层
表 1: AAIF 与 CNCF 对比

这正好对应我在 ArkSphere 架构图中的上层语义与底层基础设施。

长期来看,两边会高度耦合: CNCF 的 KServe、KAgent、AI Gateway 会默认支持 MCP / AGENTS.md, AAIF 的 Runtime 会默认跑在云原生底座上。

真正的难点:不是协议,而是组织和人

绝大多数企业会卡在:

  • 智能体到底能负责多少?
  • 错了谁背锅?
  • 审计、SLO、合规怎么定义?
  • 多智能体协作怎么可视化?
  • 工具调用权限怎么控?

换句话说,智能体落地不是“技术迁移”,而是“组织迁移”。

如果 AAIF 不能给出:

  • 分阶段 adoption 方法论
  • 典型组织结构迁移路径
  • 工程级 best practice
  • 失败案例与反模式

那它很难做到像 CNCF 那样形成真正的产业影响力。

小结:AAIF 是边界被画出来的那一刻

AAIF 的成立,对我来说像是:

“智能体世界的战场边界终于画出来了,接下来要看工程界能不能把它跑通。”

CNCF 当年解决了“云原生怎么跑”, AAIF 现在试图解决“智能体怎么协作”。

未来五年,谁能把这两个世界真正连上, 谁就会站在下一代基础设施的入口处。

这一点,也是我在 ArkSphere 单独拉一条“Agentic Runtime + AI Native Infra”研究路线的原因。

AI 原生时代的“三体”架构

最后再加点私货,是我对 ArkSphere 的思考。

图 1: AAIF × CNCF:AI 原生智能体架构的三层关系
图 1: AAIF × CNCF:AI 原生智能体架构的三层关系

这张图展示了 AI 原生时代的三层结构:

  • CNCF(底层):提供智能体运行必须的云原生底座,包括 Kubernetes、Service Mesh、GPU 调度与安全体系。

  • AAIF(中层):定义智能体的运行时语义与标准,包括 MCP 协议、Goose 参考运行时、AGENTS.md 行为规范。

  • ArkSphere(桥接层):将“Agentic Runtime 语义层”与“AI Native Infra 基础设施层”对齐,形成可工程化的智能体架构规范。

一句话概括:

Infra 负责“跑起来”,Runtime 负责“怎么行动”,ArkSphere 负责“怎么拼成系统”。

文章导航

评论区