【AI领域】OpenClaw 从零到精通:命令全攻略(MAC 最新版)
OpenClaw 作为一款强大的 AI 工具调度平台,官方配置文档存在指令过时、国内环境适配差、小白友好度低等问题 —— 尤其是手动编辑 JSON 配置文件、更换大模型 / 渠道时极易踩坑。本文整合了无数次实操验证的经验,修正了过时指令,补充了权限配置、网络适配等关键细节,从安装到进阶配置全程保姆级教学,让新手也能轻松上手。

一、安装方式(优先选 Homebrew,稳定无坑)
1. Homebrew 安装(推荐,适配 macOS/Linux)
步骤 1:安装 Homebrew(国内镜像加速)
如果未安装 Homebrew,使用国内镜像源避免超时:
bash
运行
/bin/bash -c "$(curl -fsSL https://gitee.com/ineo6/homebrew-install/raw/master/install.sh)" 若已安装但拉取缓慢,更换 Homebrew 核心镜像:
bash
运行
git remote set-url origin https://mirrors.ustc.edu.cn/homebrew-core.git 步骤 2:添加 Homebrew 到系统 PATH(关键!避免命令找不到)
bash
运行
# 适用于 zsh(macOS 默认终端) echo 'eval "$(/opt/homebrew/bin/brew shellenv)"' >> ~/.zprofile eval "$(/opt/homebrew/bin/brew shellenv)" # 若使用 bash,替换为: # echo 'eval "$(/opt/homebrew/bin/brew shellenv)"' >> ~/.bash_profile # eval "$(/opt/homebrew/bin/brew shellenv)" 步骤 3:安装 / 重装 OpenClaw
bash
运行
# 若已安装旧版本,先卸载清理 brew uninstall openclaw # 全新安装 brew install openclaw 2. 快速安装(curl 一键脚本,需先装 Homebrew)
bash
运行
curl -fsSL https://openclaw.ai/install.sh | bash 提示:curl 安装本质是调用 Homebrew,需确保已完成上述 PATH 配置,否则可能出现 openclaw: command not found。二、网关配置(必做!解决访问权限问题)
1. 检查网关状态
bash
运行
openclaw gateway status 正常输出应显示 gateway running,若提示权限错误,执行下一步。
2. 修复目录权限(核心避坑点!)
原文中 chmod 600 和 chmod 700 冲突(600 是文件权限,700 是目录权限),正确配置如下:
bash
运行
# 目录权限(读/写/执行仅当前用户) chmod 700 ~/.openclaw # 配置文件权限(读/写仅当前用户) chmod 600 ~/.openclaw/* 说明:权限错误会导致网关启动失败或配置文件无法读取,务必严格执行。
三、核心配置指令(更换大模型 / 渠道不用改 JSON)
1. 重新初始化配置(推荐!避免旧配置干扰)
bash
运行
openclaw init ⚠️ 关键提示:初始化时会询问「是否设置默认模型(provider)」,直接回车跳过!原因:首次设置的默认模型会写入底层配置,后续更换极难修改,后续通过指令配置更灵活。
2. 百炼大模型配置(国内稳定首选,避坑版)
二、国内第三方平台配置(无需梯子,稳定优先)
1. 能用 ai(国内大模型聚合)
能用 ai 提供 claude - 系列所有模型,支持国内网络直连
步骤 1:获取 API Key
【Claude】获取 Claude API Key 的多种方式全攻略:从入门到精通,再到详解教程!
步骤 2:配置 claude 模型(含 API Key)
bash
运行
openclaw config set 'models.providers.volcengine' --json '{ "baseUrl": "https://ai.nengyongai.cn/v1", # 能用ai OpenAI 兼容接口 "apiKey": "你的Key", "api": "openai-completions", "models": [ { "id": "claude-3-7-sonnet-latest", "name": "claude-3-7", "reasoning": false, "input": ["text"], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 128000, # 上下文窗口128k "maxTokens": 4096 } ] }' 步骤 3:设置默认模型并验证
bash
运行
# 设置 GLM-4 为默认模型 openclaw models set volcengine/glm-4-7-251222 # 验证配置(显示 volcengine/glm-4-7-251222 即为成功) openclaw models list # 重启网关生效 openclaw gateway restart 步骤 3:设置默认模型并验证
bash
运行
# 设置 qwen-max 为默认模型 openclaw models set bailian/qwen-max # 查看已配置的所有模型 openclaw models list 输出中显示 bailian/qwen-max 且标注 default 即为成功。
步骤 4:删除无效模型配置
若之前误操作配置了多余模型,执行以下指令清理:
bash
运行
# 清除特定模型关联 openclaw config unset 'agents.defaults.models.bailian/qwen-max-' # 或清除全局默认模型 openclaw config unset agents.defaults.model.primary 4. 飞书渠道配置(企业协作必备)
步骤 1:获取飞书 App ID 和 App Secret
- 登录 飞书开放平台
- 创建企业应用,在「凭证与基础信息」中复制
App ID和App Secret
步骤 2:配置飞书渠道
bash
运行
# 设置 App ID openclaw config set channels.feishu.appId "你的飞书App ID" # 设置 App Secret openclaw config set channels.feishu.appSecret "你的飞书App Secret" 步骤 3:验证配置
bash
运行
# 查看飞书渠道配置 openclaw config get channels.feishu 输出正确显示 App ID 和 App Secret 即为配置成功。
四、重装流程(配置混乱时救急)
当配置文件冲突、指令执行报错时,按以下步骤彻底清理重装:
1. 彻底清理旧配置和残留文件
bash
运行
# 1. 删除核心配置目录(请确认无需备份后执行!) rm -rf ~/.openclaw # 2. 清理 Homebrew 残留 brew uninstall openclaw brew cleanup # 3. 清理 npm 全局安装残留(若曾用 npm 安装) npm uninstall -g @openclaw/claw # 4. 清理手动安装残留 sudo rm -f /usr/local/bin/openclaw sudo rm -f /usr/local/bin/claw # 5. 验证清理结果 which openclaw # 应输出 "openclaw not found" which claw # 应输出 "claw not found" ls -la ~/.openclaw 2>/dev/null || echo "✅ 配置目录已彻底清理" 2. 重新安装 OpenClaw
bash
运行
# 用 curl 一键安装(自动关联 Homebrew) curl -fsSL https://openclaw.ai/install.sh | bash # 验证安装成功 openclaw --version 五、常用指令速查表(随时查阅)
表格
| 指令 | 说明 |
|---|---|
openclaw init | 重新初始化配置(清理旧设置) |
openclaw models list | 查看所有已配置的模型 |
openclaw models set <模型ID> | 设置默认模型(例:ollama/qwen2.5:7b) |
openclaw config get | 查看所有配置信息 |
openclaw config get <配置路径> | 查看指定配置(例:openclaw config get models.providers.bailian.apiKey) |
openclaw config set <key> <value> | 修改配置(例:更换飞书 App ID) |
openclaw config unset <key> | 删除指定配置 |
openclaw gateway status | 检查网关运行状态 |
openclaw --version | 查看 OpenClaw 版本 |
ollama serve | 手动启动本地模型服务 |
ollama list | 查看本地已拉取的模型 |