大模型API网关-基于New-API和One-API,整合了NewAPI,OneAPI所有功能及众多第三方插件为一身,功能超强!
|
|
2 сар өмнө | |
|---|---|---|
| .github | 3 сар өмнө | |
| common | 3 сар өмнө | |
| constant | 3 сар өмнө | |
| controller | 3 сар өмнө | |
| docs | 3 сар өмнө | |
| dto | 3 сар өмнө | |
| i18n | 3 сар өмнө | |
| img | 2 сар өмнө | |
| middleware | 3 сар өмнө | |
| model | 3 сар өмнө | |
| relay | 3 сар өмнө | |
| router | 3 сар өмнө | |
| service | 3 сар өмнө | |
| setting | 3 сар өмнө | |
| types | 3 сар өмнө | |
| web | 3 сар өмнө | |
| .dockerignore | 3 сар өмнө | |
| .env.example | 3 сар өмнө | |
| .gitignore | 3 сар өмнө | |
| Dockerfile | 2 сар өмнө | |
| LICENSE | 3 сар өмнө | |
| README.md | 2 сар өмнө | |
| VERSION | 3 сар өмнө | |
| go.mod | 3 сар өмнө | |
| go.sum | 3 сар өмнө | |
| image | 3 сар өмнө | |
| main.go | 3 сар өмнө | |
| makefile | 3 сар өмнө |
中文 | English
🍥新一代AI大模型网关,聚合大模型API调用,转换所有大模型API接口为标准的 OpenAI-API格式,提供统一访问接口,开箱即用
<img src="https://img.shields.io/github/license/Calcium-Ion/new-api?color=brightgreen" alt="license">
全新AI大模型接口管理与API聚合分发系统,支持将多种大模型转换成统一的OpenAI兼容接口,Claude接口,Gemini接口,可供个人或者企业内部大模型API
统一管理和渠道分发使用(key管理与二次分发),支持国际国内所有主流大模型,gemini,claude,qwen3,kimi-k2,豆包等,提供单可执行文件,
docker镜像,一键部署,开箱即用,完全开源,自主可控!
MIXAPI提供了丰富的功能:
🔄 新增对token令牌的控制,可控制分钟请求次数限制和日请求次数限制
📊 新增用量日统计
📊 新增用量月统计
📋 新增令牌管理显示该令牌的今日次数和总次数
📝 新增通过令牌请求的内容记录显示
📝 支持通过令牌直接查询余额,自行完成充值,无需登录
📝 支持套餐管理模式,用户令牌绑定套餐,可以限制次数,周期,使用频率,指定渠道,指定模型
📝 新增套餐管理界面
📝 新增访问令牌界面,直接选择套餐即可,无需更多操作
📝 支持令牌中选择渠道组,设定该令牌只有渠道组下面的渠道可用,并结合选择渠道组,选择模型达到限制需求
📝 API令牌中增加控制使用总次数限制,当达到总次数限制时返回额度已用完
📝 增加在系统设置是否记录用户通过令牌请求api 开关控制
📝 优化用户输入只采集中文,过滤代码字符
📝 优化同一会话的多轮请求重复记录,只记录最后一次
📝 优化增加系统设置清理日志的时间范围
📝 调整默认配置不启用价格,采用token显示余额 (合规方向)
📝 调整git任务流程打包发布名称输出
📝 调整数据看板的Api默认配置
📝 增加渠道导出excel 和导入excel
详细部署指南请参考下面教程
windows对应下载release里面的.exe文件双击运行,下载好.exe程序, 双击运行,运行起来后通过浏览器访问
http://localhost:3000
下载本项目源码 安装好go环境, 然后在根目录运行命令 , 可用于本地开发测试
git clone https://github.com/aiprodcoder/MIXAPI
cd MIXAPI
go run main.go
#浏览器访问 http://localhost:3000 即可打开界面
下载本项目Dockerfile文件,自行构建docker镜像,容器运行,可用于测试和正式运行
wget -O Dockerfile https://raw.githubusercontent.com/aiprodcoder/MIXAPI/main/Dockerfile
docker build -t mixapi .
# 测试运行命令
mkdir mix-api #创建工作目录
cd mix-api #进入工作目录
docker run -it --rm -p 3000:3000 -v $PWD:/data mixapi:latest ($PWD为当前工作目录)
# 正式运行命令
docker run --name mixapi -d --restart always -p 3000:3000 -v $PWD:/data -e TZ=Asia/Shanghai mixapi:latest ($PWD为当前工作目录)
# 浏览器访问 http://localhost:3000 即可打开界面
渠道重试功能已经实现,可以在设置->运营设置->通用设置设置重试次数,建议开启缓存功能。
REDIS_CONN_STRING:设置Redis作为缓存MEMORY_CACHE_ENABLED:启用内存缓存(设置了Redis则无需手动设置) OpenAI格式chat: http://你的MixAPI服务器地址:3000/v1/chat/completions
Anthropic格式chat: http://你的MixAPI服务器地址:3000/v1/messages
Gemini格式chat: http://你的MixAPI服务器地址:3000/v1beta
嵌入OpenAI: http://你的MixAPI服务器地址:3000/v1/embeddings
### 社区交流 ,免费大模型API资源 ,软件定制,软件修改,商务咨询 请扫描加入微信群,我们一起把MixAPI做到最好