统一 OpenAI API 格式调用 20+ 主流大模型
1. 为什么需要统一的 API 入口
开发中常遇到以下痛点:
- 想在本地部署 AI 助手,却发现每个大模型都有自己的 API 格式——ChatGLM 要填
/chat路径,文心一言要走特定长路径,通义千问又是另一套参数结构; - 项目里已经写好了 OpenAI 调用逻辑,现在想换成国产模型,结果要重写所有请求封装、错误处理、流式响应解析;
- 同时测试多个模型效果,却要在代码里反复切换不同 SDK、不同认证方式、不同超时配置;
- 更头疼的是,有些模型需要代理、有些必须用 HTTPS、有些对请求头敏感——光是环境适配就耗掉半天。
这些问题,其实都指向同一个核心痛点:模型太多,接口太碎,开发太累。
该工具旨在解决此问题。它不训练模型,不做推理计算,只做一件事:把 20 多个主流大模型,全部'翻译'成你最熟悉的 OpenAI API 格式。
开箱即用,无需改一行业务代码,就能让原本只认 gpt-3.5-turbo 的应用,无缝对接文心一言、通义千问、讯飞星火、ChatGLM、腾讯混元……甚至包括 Google Gemini、Claude、Mistral 等国际模型。
它并非传统 API 网关或中间件服务,而是一个轻量、专注的工程化工具。
2. 核心能力清单
2.1 支持哪些模型?覆盖全场景主流选择
目前完整支持以下 20+ 主流大模型平台,全部通过标准 OpenAI /v1/chat/completions 接口对外提供服务:
- 国内主力:文心一言(百度)、通义千问(阿里)、讯飞星火(科大讯飞)、ChatGLM(智谱 AI)、腾讯混元、360 智脑、字节豆包(火山引擎)、DeepSeek、零一万物(Yi)、阶跃星辰(StepFun)、百川智能、硅基流动(SiliconCloud)
- 国际主流:OpenAI(GPT 系列)、Azure OpenAI、Anthropic Claude、Google Gemini / PaLM2、Mistral、Groq、Cohere、Moonshot AI、MINIMAX、together.ai、Cloudflare Workers AI、xAI、DeepL
关键提示:所有模型均支持完整的 OpenAI 兼容能力,包括
messages数组、system/user/assistant角色、temperature/top_p/max_tokens等核心参数,以及最重要的——流式响应(stream: true)。这意味着你用curl、Postman、LangChain、LlamaIndex 写的代码,几乎不用改就能跑通。
2.2 工程级增强能力
它远不止是一个简单的'协议转换器'。在统一 API 的基础上,内置了多项面向真实使用场景的增强功能:
负载均衡与多渠道调度
你可以同时配置多个文心一言 API Key、多个通义千问 Endpoint,系统会自动按权重或轮询方式分发请求,避免单点故障,提升整体可用性。
模型别名映射(Model Alias)
这是最实用的功能之一。比如你的前端应用只认 gpt-4 这个模型名,但你想让它实际调用通义千问的 qwen-max。只需一条配置:
QWEN_MODEL_ALIAS=gpt-4:qwen-max,gpt-3.5-turbo:qwen-plus
所有发往 gpt-4 的请求,将被自动重写为 qwen-max,且请求体其他字段保持原样透传。
API Key 安全隔离
你再也不用把密钥硬编码进前端或暴露给第三方应用。所有模型密钥统一在服务端配置,外部调用时只需任意 Bearer Token(甚至可以填 Bearer abc123),真正的密钥由服务端安全保管。

