KCD 2024 SHANGHAI AICloud - 04 Kong AI Gateway & Kong Gateway Operator
用 Operator 将 LLM 和 Gateway 结合的更容易 - 张晋涛,Kong Inc.
总结:
- 演讲者先介绍了调用 LLM API 的时候需要注意的问题,包括安全性、成本、可靠性、可观测性与配额等多方面,并以此引入了 AI Gateway 的概念。
- AI Gateway通过插件的方式,集成了多种在线和私有化部署的模型,进行认证授权密钥的管理,以及可观测服务的集成,甚至无须编码将LLM应用与后端服务集成。
- 此外,他还介绍了Kong Gateway Operator,通过 CRD 以及 Kubernetes 的 Gateway API 以更加便利的形式管理 AI Gateway 的资源,更好地与 Kubernetes 的生态系统集成。
为什么LLMs 需要 Gateway
基本开发场景
-
- 调用 LLM的API
-
- 传递参数/prompt
-
- 处理响应结果
调用 LLM的API需要注意什么
- 1. 安全性
- 1.1 认证信息API Key的管理
- 1.2 请求内容的安全性/合规性
- 2. 成本
- 2.1 缓存请求响应(可选)
- 3. 可靠性
- 3.1 供应商API的SLA
- 4. 可观测性
- Requests
- Tokens/Cost
- 5. 限制与配额
- RPM & RPD
- TPM & TPD
- 6. 版本兼容性
- API/模型版本升级等
- 7. 错误处理
- 异常重试
- Fallback Response
- 8. 依赖管理
- 多种备用模型
- 避免单一依赖
AI Gateway的能力

ai_proxy
认证和授权
-
LLM API 的密钥可通过AI Gateway统一管理
- Environment variables
- AWS Secrets Manager
- GCP Secrets Manager
- Azure Key Vaults
- HashiCorp Vault
-
可使用Kong AI Gateway原生的多种认证插件进行集成
无须编码即可将LLM应用到原有API调用流程中
-
- AI Response Transformer: 设置prompt直接处理响应
-
- AI Response Transformer: 设置prompt直接处理请求

AI Prompt Guard – prompt 防火墙
- 通过 Allow Patterns/Deny Patterns进行特定范围 prompt的管理
- 防止一些违规或者不安全的内容
- AI Prompt Decorator
- 统一规则设置
- 用于为所有请求设置统一的prompt规则
- 合规
- 排除敏感信息
- …
以上主要介绍了AI Gateway的一些特性
Kong Gateway Operator带来的便利
全托管的Gateway
- 通过申明式配置,直接定义
- 创建gateway资源,自动管理
- 通过AIGateway进行第一类支持
- 直接申明所需配置,自动部署 Gateway 并配置相关 plugin
- 减少运维/维护成本
- 弹性伸缩
- AIGateway的生命周期管理
发展方向
- Kong Gateway Operator:通过 configRef 等机制,复用配置/屏蔽一些配置字段
- AIGateway:基于 Token 的计费和限制
- 添加更多 LLM 的集成