AI Proxy
新一代 AI 网关,采用 OpenAI 兼容协议
[](https://github.com/labring/aiproxy/releases)
[](https://github.com/labring/aiproxy/blob/main/LICENSE)
[](https://github.com/labring/aiproxy/blob/main/core/go.mod)
[](https://github.com/labring/aiproxy/actions)
[English](./README.md) | [简体中文](./README.zh.md)
---
## 🚀 项目概述
AI Proxy 是一个强大的、生产就绪的 AI 网关,提供智能请求路由、全面监控和无缝多租户管理。基于 OpenAI、Anthropic 和 Gemini 兼容协议构建,是需要可靠性、可扩展性和高级功能的 AI 应用的完美中间件。
## ✨ 核心特性
### 🔄 **智能请求管理**
- **智能重试机制**:智能重试策略与自动错误恢复
- **基于优先级的渠道选择**:根据渠道优先级和错误率路由请求
- **负载均衡**:高效地在多个 AI 提供商之间分配流量
- **协议转换**:在 OpenAI Chat Completions、Claude Messages、Gemini 和 OpenAI Responses API 之间无缝转换
- Chat/Claude/Gemini → Responses API:使用任意协议访问仅支持 Responses 的模型
### 📊 **全面监控与分析**
- **实时告警**:余额预警、错误率和异常等主动通知
- **详细日志**:完整的请求/响应跟踪和审计轨迹
- **高级分析**:请求量、错误统计、RPM/TPM 指标和成本分析
- **渠道性能**:错误率分析和性能监控
### 🏢 **多租户架构**
- **组织隔离**:不同组织间的完全分离
- **灵活访问控制**:基于令牌的身份验证和子网限制
- **资源配额**:每组的 RPM/TPM 限制和使用配额
- **自定义定价**:每组模型定价和计费配置
### 🤖 **MCP (模型上下文协议) 支持**
- **公共 MCP 服务器**:开箱即用的 MCP 集成
- **组织 MCP 服务器**:组织专用的私有 MCP 服务器
- **嵌入式 MCP**:带配置模板的内置 MCP 服务器
- **OpenAPI 转 MCP**:自动将 OpenAPI 规范转换为 MCP 工具
### 🔌 **插件系统**
- **缓存插件**:高性能缓存,支持 Redis/内存存储,用于相同请求
- **网络搜索插件**:实时网络搜索功能,支持 Google、Bing 和 Arxiv
- **思考模式插件**:支持推理模型的内容分割,自动处理 `