OpenClaw 免费 AI 大模型选型与配置指南
OpenClaw 中的'免费模型'通常有两种含义,混淆这两者往往是新手浪费时间的根源。
一种是真正的本地免费。模型运行在你的机器上,你只需承担 CPU、内存、GPU 和电力的成本。例如 Ollama 或自行托管的 OpenAI 兼容运行时。
另一种是托管服务的免费套餐。服务商提供一定的配额或积分,但通常伴随速率限制、策略约束,甚至可能突然中断服务。
本指南旨在提供实用的配置方案。模型配置看似简单,但一旦遇到工具调用变慢、429 错误,或者身份验证配置文件不匹配等问题,细节就至关重要。
模型引用机制
OpenClaw 使用 provider/model 格式引用模型,例如 openai/gpt-5.1-codex 或 ollama/llama3.3。
设置 agents.defaults.models 实际上创建了一个允许列表,只有列表中的模型可用。这在防止不同环境下模型选择出现随机偏差时非常有用。
常用命令行助手包括:
openclaw onboard:用于初始身份验证和提供商设置openclaw models list:查看 OpenClaw 识别到的模型openclaw models set provider/model:无需编辑配置文件即可快速切换
制定策略:别急着盲目尝试
策略 A:本地优先,托管备用
这是自托管用户的默认建议。本地模型处理日常繁琐任务,备用方案应对高负载需求。大部分流量留在本地,成本更可控。
策略 B:仅提供免费托管服务
如果你不需要本地推理且使用量轻,此方案可行。缺点是免费额度会变动,需准备备用方案以防限制。
策略 C:仅限本地
隐私和成本最优,但对硬件依赖最大。小型机器上的小参数模型适合快速自动化,长推理任务则可能崩溃。
真正免费的本地模型
Ollama
Ollama 是最常见的本地化方案。OpenClaw 支持 Ollama 作为提供商,并能自动检测本地服务器 http://127.0.0.1:11434/v1。
最简配置如下:
ollama pull llama3.3
openclaw models list
然后设置默认模型 openclaw.json:
{
"agents": {
"defaults": {
"model": {
"primary": "ollama/llama3.3"
}
}
}
}

