跳到主要内容 OpenClaw 免费 AI 大模型及配置方法 | 极客日志
Shell / Bash SaaS AI 算法
OpenClaw 免费 AI 大模型及配置方法 介绍 OpenClaw 中免费 AI 大模型的两种模式:本地运行与托管服务。详细说明了 Ollama、LM Studio 等本地方案,以及 Qwen、OpenRouter、Groq 等托管服务的配置策略。涵盖模型引用格式、故障回退机制、安全设置及常见问题排查,帮助用户构建稳定且低成本的 AI 代理环境。
星河入梦 发布于 2026/4/5 更新于 2026/4/13 0 浏览OpenClaw 中的'自由模型'可能意味着两种不同的东西,而混淆这两种模型正是大多数人浪费时间的地方。
有一种'免费'是真正意义上的免费 ,因为模型运行在本地,你只需要支付 CPU、内存、GPU 和电力费用。例如 Ollama 或你自行托管的 OpenAI 兼容运行时环境。
另一种是'免费套餐' ,即托管服务提供商提供一定的配额、积分或 OAuth 访问权限。这种套餐虽然不错,但通常会有速率限制、策略限制,而且偶尔还会出现意外中断或流量突然上限的情况。
本指南篇幅较长,因为模型配置看似简单,但一旦遇到问题,例如工具调用速度变慢、出现 429 错误,或者某个代理使用的身份验证配置文件与预期不符等,就会发现其中的奥妙。我们将力求实用。
如果您是 OpenClaw 新手,建议先了解其基础原理。如果您已经运行了 OpenClaw,接下来我们来正确地连接模型。
OpenClaw 模型引用的工作原理 OpenClaw 模型引用使用provider/model 格式。例如:openai/gpt-5.1-codex或ollama/llama3.3。
如果你设置了此项,agents.defaults.models实际上就创建了一个允许列表。只有列表中列出的模型才符合条件。这在你想防止不同环境下的模型选择出现随机偏差时非常有用。
openclaw onboard用于初始身份验证和提供商设置
openclaw models list看看 OpenClaw 能看到什么
openclaw models set provider/model无需编辑配置即可快速切换
这些内容在提供商文档中都有明确说明,可以避免配置错误。
在粘贴随机按键之前,请先制定好策略
策略 A:本地优先,托管备用 这是我给大多数自托管用户的默认建议。本地模型可以处理繁琐的日常任务,而备用方案则可以应对'我需要更强大的处理器来处理这个问题'或'我的本地服务器繁忙'的情况。此外,由于大部分流量都停留在本地,因此成本也更可预测。
策略 B:仅提供免费托管服务 如果你不需要进行任何本地推理,并且使用量很轻,那么这种方法可行。缺点是免费套餐的额度会变化,你会遇到限制,所以你需要一些备用方案。
策略 C:仅限本地 从隐私和成本角度来看,这是最简洁的方案。但它也最依赖硬件。在小型机器上运行的 3B 模型在快速自动化方面表现出色,但在长时间的推理任务中则会崩溃。
真正免费的本地模型
Ollama Ollama 是最常见的'我想要免费且本地化的服务'方案。OpenClaw 支持 Ollama 作为服务提供商,并且可以自动检测本地 Ollama 服务器http://127.0.0.1:11434/v1。
ollama pull llama3.3
openclaw models list
{
"agents" : {
"defaults" : {
"model" : {
"primary" : "ollama/llama3.3"
}
}
}
}
如果你想要一套合理的'入门'模型,可以保留一个通用模型作为主模型,再添加一个编码模型作为备用。一开始规模要小,以后可以随时扩展。
Ollama 关于流式传输的警告 由于 SDK 和流格式的特殊性,某些 Ollama 配置的构建版本会禁用流式传输。如果您发现文本输出中泄露了奇怪的工具标记,通常就是这个原因。请将流式传输视为可选而非必需。
LM Studio vLLM LiteLLM llama.cpp 和其他 OpenAI 兼容运行时 OpenClaw 可以通过几乎任何 OpenAI 兼容的基本 URL 使用.models.providers。文档甚至展示了带有显式提供程序配置的 LM Studio 风格端点的模式。
{
"agents" : {
"defaults" : {
"model" : {
"primary" : "lmstudio/minimax-m2.1-gs32"
} ,
"models" : {
"lmstudio/minimax-m2.1-gs32" : {
"alias" : "MiniMax"
}
}
}
} ,
"models" : {
"providers" : {
"lmstudio" : {
"baseUrl" : "http://localhost:1234/v1" ,
"apiKey" : "LMSTUDIO_KEY" ,
"api" : "openai-completions" ,
"models" : [
{
"id" : "minimax-m2.1-gs32" ,
"name" : "MiniMax M2.1" ,
"contextWindow" : 200000 ,
"maxTokens" : 8192 ,
"cost" : {
"input" : 0 ,
"output" : 0 ,
"cacheRead" : 0 ,
"cacheWrite" : 0
}
}
]
}
}
}
}
请注意,这些cost字段的值都设置为零。这在配置中是一个很好的提示:本地模式意味着不按令牌计费。
提供免费套餐和免费访问途径的托管选项 本部分介绍一些可以让你无需立即付费即可运行 OpenClaw 的服务商。条款和配额可能会有所变动,有些'免费'服务实际上只是'促销额度用完前免费'。请将此视为一份清单,而非承诺。
Qwen OAuth 如果你想要一个不错的免费套餐,又不想费劲地'轮换 12 个 API 密钥',我推荐你试试这个。OpenClaw 通过 OAuth 设备代码流程和捆绑插件支持 Qwen。
openclaw plugins enable qwen-portal-auth
openclaw models auth login --provider qwen-portal --set-default
qwen-portal/coder-model
qwen-portal/vision-model
Qwen 的文档中描述了与 OAuth 访问相关的每日免费请求配额。
我个人的看法是: Qwen 是少数几个'免费版'仍然能满足实际工作需求的软件之一,前提是你得为合适的工作选择合适的模式。我不会用它来管理整个团队的免费业务,但对于个人经纪人来说,它可能是一个不错的选择。
OpenRouter 免费模型 OpenRouter 的优势在于它将多个模型聚合到一个提供商之下。他们的文档也解释了某些模型上的**:free**后缀。
{
"agents" : {
"defaults" : {
"model" : {
"primary" : "openrouter/meta-llama/llama-3.2-3b-instruct:free"
}
}
}
}
免费模型可能会随时间变化,因此请将模型选择视为需要定期重新评估的事情。如果某个免费模型消失,您需要提前配置好备用模型。
Groq Groq 之所以受欢迎,是因为它速度快,而且通常提供充足的流量供用户进行实验。您的具体流量配额取决于 Groq 在您所在地区和账户级别提供的配额。尽管如此,它仍然值得作为备用方案,因为一旦成功,流量几乎是瞬间到账的。
OpenClaw 内置了 Groq 作为提供程序,它使用GROQ_API_KEY。
Google Gemini Gemini 也是一个内置的提供程序,它使用GEMINI_API_KEY。
谷歌的免费使用量和速率限制取决于产品类型和套餐,因此我不会在类似这样的教程中给出具体的数值。如果您想大致了解情况,可以参考谷歌社区论坛上关于 API 类免费使用每日请求上限的讨论。
Mistral Mistral 是另一个内置提供商。如果您所在地区有免费套餐,它可以作为不错的通用备选方案。OpenClaw 使用 MistralMISTRAL_API_KEY进行身份验证。
Cohere Cohere 常用于摘要和分类类工作。根据你的路由方式,你可以使用直接提供商或与 OpenAI 兼容的代理。如果你使用的是免费套餐,除非你确定它能满足你的使用需求,否则建议将其作为备用方案而非主要方案。
Moonshot Kimi 和 Kimi Coding Kimi 通常并非'永久免费',但通常可以通过促销活动、积分或合作伙伴计划获得。OpenClaw 的文档介绍了如何将 Moonshot 配置为具有 OpenAI 兼容基础 URL 的自定义提供商。
{
"agents" : {
"defaults" : {
"model" : {
"primary" : "moonshot/kimi-k2.5"
}
}
} ,
"models" : {
"mode" : "merge" ,
"providers" : {
"moonshot" : {
"baseUrl" : "https://api.moonshot.ai/v1" ,
"apiKey" : "${MOONSHOT_API_KEY}" ,
"api" : "openai-completions" ,
"models" : [
{
"id" : "kimi-k2.5" ,
"name" : "Kimi K2.5"
}
]
}
}
}
}
Kimi Coding 是文档中一个单独的提供程序路由KIMI_API_KEY。
DeepSeek DeepSeek 通常被描述为'基本免费',但这取决于您是在本地运行还是使用托管 API。如果您通过 Ollama 或本地 OpenAI 兼容服务器运行 DeepSeek,则成本仅为硬件费用。如果您使用托管 API,则通常成本较低,而非完全免费。
如何设置回退方案,以避免免费层级破坏您的代理 OpenClaw 通过两层机制处理故障。它可以在同一提供商内轮换身份验证配置文件,然后回退到下一个模型agents.defaults.model.fallbacks。
这比听起来更重要,因为免费套餐更容易达到速率限制,并且更容易出现'计费已禁用'状态。OpenClaw 会跟踪冷却时间,并在发生计费错误时延长用户配置文件的禁用时间。
身份验证配置文件的持久性以及为什么您的提供商会在周中'更改' OpenClaw 将 API 密钥和 OAuth 令牌存储在身份验证配置文件中,并且为了缓存友好性,它会为每个会话固定一个选定的配置文件。
如果您为同一提供商设置了多个配置文件,OpenClaw 可以根据配置顺序或轮询规则轮换使用它们。
如果您感觉 OAuth 登录'消失'了,这通常只是因为登录名轮换。如果您希望登录行为可预测,请固定登录名顺序。
重要免费模型安全设置
切勿提交 API 密钥 。请将它们放在环境变量或 systemd 环境变量文件中。
未经授权,请勿将您的网关暴露在公共互联网上 。请使用令牌、尾网或合适的反向代理。
保持工具访问权限合理 。即使是免费模型,如果你的代理可以运行危险工具,它仍然有可能运行这些工具。
如果你想了解'技能层'方面的内容,其安全理念是相同的。技能是执行层面,而非内容本身。这部分内容在 OpenClaw 技能指南中有详细介绍。
快速故障排除清单
OpenClaw 无法识别任何模型
运行openclaw models list并确认服务提供商出现。
如果使用 Ollama,请确保服务可访问并ollama list显示模型。
如果使用代理,请确认其baseUrl是否与/v1OpenAI API 兼容。
我一直遇到 401 或 403 错误。
请检查该提供程序对应的正确环境变量。OpenClaw 的提供程序文档列出了所需的身份验证变量。
如果您有多个身份验证配置文件,则故障的配置文件可以轮换使用。请检查身份验证配置文件的顺序和冷却状态。
我一直遇到 429 速率限制。
添加备用方案,以便 OpenClaw 在服务提供商限速时可以切换模型。
对于像长文档摘要这样的高负载工作流程,应降低并发量。
如果你使用的是免费套餐,请接受这是正常现象,并据此进行设计。
微信扫一扫,关注极客日志 微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
相关免费在线工具 加密/解密文本 使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
RSA密钥对生成器 生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
Mermaid 预览与可视化编辑 基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
Base64 字符串编码/解码 将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
Base64 文件转换器 将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
Markdown 转 HTML 将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML 转 Markdown 互为补充。 在线工具,Markdown 转 HTML在线工具,online