简介
Kong 是一款云原生、高性能的开源 API 网关,支持丰富的插件系统和多种部署模式。近年来,Kong 增强了针对 AI 场景的功能(如 AI 网关、LLM 路由、多模型编排与可观测性),非常适合作为边缘或云环境下管理 LLM/MCP 请求的网关层。
主要特性
- 高性能代理与灵活路由(L4/L7,负载均衡,健康检查)。
- 可扩展的插件架构和插件中心,支持 Lua/Go/JavaScript 扩展。
- 原生支持 Kubernetes,并提供官方 Ingress Controller。
- 面向 AI 的能力:LLM 路由、语义路由、语义安全、缓存与可观测性。
典型场景
- 为多个 LLM 提供商(OpenAI、Anthropic、Azure、AWS 等)集中路由与治理。
- 为外部或内部 API 增加认证、限流、审计和语义安全策略。
- 作为 MCP(模型控制平面)流量的安全与可观测性层,适用于边缘或云端部署。
技术亮点
- 支持声明式与数据库驱动的配置模式,便于 CI/CD 和基础设施即代码实践。
- 丰富的插件生态和可扩展的插件开发工具包(PDK)。
- 分布式控制平面/数据平面架构,支持大规模部署。
- 官方文档和 Docker、Kubernetes、混合部署示例,便于快速上手。