📚 构建长期复利型知识基础设施的指南,详见 RAG 实战手册

Kong

Kong 是一款高性能、云原生的 API 网关,具备强大的 AI 能力和灵活的插件系统,非常适合管理 LLM/MCP 请求。

简介

Kong 是一款云原生、高性能的开源 API 网关,支持丰富的插件系统和多种部署模式。近年来,Kong 增强了针对 AI 场景的功能(如 AI 网关、LLM 路由、多模型编排与可观测性),非常适合作为边缘或云环境下管理 LLM/MCP 请求的网关层。

主要特性

  • 高性能代理与灵活路由(L4/L7,负载均衡,健康检查)。
  • 可扩展的插件架构和插件中心,支持 Lua/Go/JavaScript 扩展。
  • 原生支持 Kubernetes,并提供官方 Ingress Controller。
  • 面向 AI 的能力:LLM 路由、语义路由、语义安全、缓存与可观测性。

典型场景

  • 为多个 LLM 提供商(OpenAI、Anthropic、Azure、AWS 等)集中路由与治理。
  • 为外部或内部 API 增加认证、限流、审计和语义安全策略。
  • 作为 MCP(模型控制平面)流量的安全与可观测性层,适用于边缘或云端部署。

技术亮点

  • 支持声明式与数据库驱动的配置模式,便于 CI/CD 和基础设施即代码实践。
  • 丰富的插件生态和可扩展的插件开发工具包(PDK)。
  • 分布式控制平面/数据平面架构,支持大规模部署。
  • 官方文档和 Docker、Kubernetes、混合部署示例,便于快速上手。

评论区

Kong
资源信息
作者 Kong
添加时间 2025-09-27
标签
开源项目 AI 网关