【运维心得】OpenClaw国内模型用那个?
目录
✅ 方案一:绑定自己的阿里云 API Key(最推荐,彻底解决)
OpenClaw作为一款开源的AI工具链,支持多种国内大模型的集成与调用。对于国内开发者而言,了解不同模型的免费调用频率限制至关重要,以便合理规划资源使用。
之前默认使用的是qwen-portal,但是经常发现openclaw状态正常,但是没有任何回复,查看日志,是因为有调用限制:
Embedded agent failed before reply: All models failed (2): qwen-portal/coder-model: ⚠️ API rate limit reached. Please try again later. (rate_limit) | qwen-portal/vision-model: No available auth profile for qwen-portal (all in cooldown or unavailable). (rate_limit)以下是目前主流国内大模型在OpenClaw上的免费调用频率对比分析。
常见国内模型及免费调用策略
| 模型名称 | 提供方 | 免费调用频率(次/天) | 额外限制 | 适用场景 |
|---|---|---|---|---|
| 文心一言 | 百度 | 1000 | 需实名认证,QPS限制10 | 文本生成、对话 |
| 通义千问 | 阿里云 | 500 | 新用户首月1000次/天 | 多模态、代码生成 |
| 讯飞星火 | 科大讯飞 | 300 | 需企业邮箱注册 | 语音合成、NLP |
| 智谱AI | 清华智谱 | 200 | 学术用途可申请更高配额 | 科研、论文摘要 |
| 华为盘古 | 华为云 | 100 | 需绑定华为开发者账号 | 企业级AI解决方案 |
| 澜舟科技 | 澜舟 | 50 | 仅支持文本类任务 | 轻量级NLP应用 |
详细分析
文心一言(百度)
免费调用频率较高,适合高频文本生成需求。需注意QPS(每秒查询数)限制,避免突发流量导致调用失败。实名认证后,可进一步提升稳定性。
通义千问(阿里云)
新用户首月享有更高额度,适合短期密集测试。多模态支持较强,但在免费 tier 下部分功能(如图像生成)可能受限。
讯飞星火(科大讯飞)
免费调用次数适中,但需企业邮箱注册,更适合中小企业或团队使用。语音相关API的免费配额通常独立计算。
智谱AI(清华智谱)
学术友好型,提供额外配额申请通道。适合科研场景,但通用文本生成能力略逊于商业模型。
华为盘古(华为云)
免费额度较低,但与企业级服务深度集成。适合已有华为云生态的用户,需注意调用接口的兼容性。
澜舟科技
免费调用频率最低,但轻量级架构响应速度快。适合小型项目或原型开发,长期使用需考虑付费升级。
其他注意事项
- 频率重置时间:多数模型的免费调用频率按自然日重置,部分按UTC时间计算(如阿里云)。
- 超额处理:超出免费限额后,通常直接拒绝请求或转为按量计费,需提前监控用量。
- 地域限制:部分模型仅支持中国大陆IP调用,海外用户需配置代理。
总结
选择模型时,需平衡调用频率、功能需求及注册门槛。对于高频测试场景,文心一言或通义千问更优;若侧重学术或轻量应用,智谱AI或澜舟科技可能更合适。建议结合OpenClaw的SDK文档,进一步优化调用策略。
最终解决方案
✅ 方案一:绑定自己的阿里云 API Key(最推荐,彻底解决)
不要依赖 qwen-portal 这个共享通道,直接使用阿里云 DashScope 的官方接口。
- 获取 Key:
- 访问 阿里云 DashScope 控制台。
- 创建一个新的 API Key(确保开通了
qwen-turbo或qwen-max服务)。 - 新用户通常有免费额度(约 100 万 Token 或一定金额的赠金)。
- 修改 OpenClaw 配置:
- 找到 OpenClaw 的配置文件(通常是
.env、config.yaml或在设置界面的 Providers/Models 页面)。 - 删除或禁用
qwen-portal相关的配置。 - 新增 一个自定义 provider,填写以下信息:
- Provider Name:
aliyun或dashscope - Base URL:
https://dashscope.aliyuncs.com/compatible-mode/v1 - API Key: 填入你刚才复制的
sk-xxxxxx - Model:
qwen-turbo(推荐,便宜且快) 或qwen-max
- Provider Name:
- 找到 OpenClaw 的配置文件(通常是
- 重启服务:保存配置后重启 OpenClaw 进程。
⏳ 方案二:等待冷却结束(临时应急)
如果你暂时无法获取自己的 Key,只能等待共享池恢复。
- 等待时间:通常冷却期为 5~15 分钟。
- 操作:停止发送请求,等待 10 分钟后再试。
- 注意:再次使用时请降低频率,不要连续快速发送多条指令。
🔄 方案三:切换本地模型(完全免费,无限制)
如果你不想消耗 API 额度,可以切换回本地模型(如之前提到的 Ollama)。
- 配置:将模型提供商改为
Ollama,地址设为http://localhost:11434。 - 模型:选用
qwen2.5:7b或llama3:8b。 - 优点:没有
rate_limit,没有cooldown,完全由你的硬件决定速度。