GLM-5 与 Qwen3.5 大模型 API 调用教程
最近在寻找可以免费调用的大模型 API 时,发现某平台开放了限时活动,提供 GLM-5、Qwen3.5 系列模型的免费调用。
一、支持模型
目前放出的模型主要有三个:
- zai-org/GLM-5
- Qwen/Qwen3.5-122B-A10B
- Qwen/Qwen3.5-397B-A17B
从参数规模来看,Qwen3.5-397B 已经是非常大的模型级别,一般平台调用成本较高。官方说明为免费且不限调用量,但由于活动刚发布,实际调用稳定性暂时需观察。
二、注册与 Key 获取
注册完成后,需要到后台生成 API Key。API Key 地址在平台的开发者中心页面。注意 API 需要账号绑定好邮箱后使用,否则会有调用限制。
三、API 调用地址
官方提供的接口地址:
https://api-ai.gitcode.com/v1
模型名称示例:
zai-org/GLM-5
Qwen/Qwen3.5-122B-A10B
Qwen/Qwen3.5-397B-A17B
如果你之前用过 OpenAI API 格式,基本可以直接兼容。例如 Node.js 调用示例:
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "你的 API_KEY",
baseURL: "https://api-ai.gitcode.com/v1"
});
const completion = await client.chat.completions.create({
model: "Qwen/Qwen3.5-397B-A17B",
messages: [{ role: "user", content: "写一段介绍 Vue 的文字" }]
});
console.log(completion.choices[0].message);
整体接口结构和 OpenAI 基本一致,所以很多 AI 工具、客户端、插件都可以直接对接。
四、测试情况
使用 OpenClaw 测试了一下模型连接,成功验证的模型是 Qwen3.5-397B-A17B。
不过有一个比较奇怪的问题:上下文只有 16K。按理说 Qwen3.5 的上下文能力是很高的,如果通过官方登录 Qwen 模型,上下文可以达到 125K。目前还不太确定是平台限制、模型代理还是识别问题。


