【AI领域】OpenClaw 从零到精通:命令全攻略(MAC 最新版)

【AI领域】OpenClaw 从零到精通:命令全攻略(MAC 最新版)

OpenClaw 作为一款强大的 AI 工具调度平台,官方配置文档存在指令过时、国内环境适配差、小白友好度低等问题 —— 尤其是手动编辑 JSON 配置文件、更换大模型 / 渠道时极易踩坑。本文整合了无数次实操验证的经验,修正了过时指令,补充了权限配置、网络适配等关键细节,从安装到进阶配置全程保姆级教学,让新手也能轻松上手。

一、安装方式(优先选 Homebrew,稳定无坑)

1. Homebrew 安装(推荐,适配 macOS/Linux)

步骤 1:安装 Homebrew(国内镜像加速)

如果未安装 Homebrew,使用国内镜像源避免超时:

bash

运行

/bin/bash -c "$(curl -fsSL https://gitee.com/ineo6/homebrew-install/raw/master/install.sh)" 

若已安装但拉取缓慢,更换 Homebrew 核心镜像:

bash

运行

git remote set-url origin https://mirrors.ustc.edu.cn/homebrew-core.git 
步骤 2:添加 Homebrew 到系统 PATH(关键!避免命令找不到)

bash

运行

# 适用于 zsh(macOS 默认终端) echo 'eval "$(/opt/homebrew/bin/brew shellenv)"' >> ~/.zprofile eval "$(/opt/homebrew/bin/brew shellenv)" # 若使用 bash,替换为: # echo 'eval "$(/opt/homebrew/bin/brew shellenv)"' >> ~/.bash_profile # eval "$(/opt/homebrew/bin/brew shellenv)" 
步骤 3:安装 / 重装 OpenClaw

bash

运行

# 若已安装旧版本,先卸载清理 brew uninstall openclaw # 全新安装 brew install openclaw 

2. 快速安装(curl 一键脚本,需先装 Homebrew)

bash

运行

curl -fsSL https://openclaw.ai/install.sh | bash 
提示:curl 安装本质是调用 Homebrew,需确保已完成上述 PATH 配置,否则可能出现 openclaw: command not found

二、网关配置(必做!解决访问权限问题)

1. 检查网关状态

bash

运行

openclaw gateway status 

正常输出应显示 gateway running,若提示权限错误,执行下一步。

2. 修复目录权限(核心避坑点!)

原文中 chmod 600chmod 700 冲突(600 是文件权限,700 是目录权限),正确配置如下:

bash

运行

# 目录权限(读/写/执行仅当前用户) chmod 700 ~/.openclaw # 配置文件权限(读/写仅当前用户) chmod 600 ~/.openclaw/* 
说明:权限错误会导致网关启动失败或配置文件无法读取,务必严格执行。

三、核心配置指令(更换大模型 / 渠道不用改 JSON)

1. 重新初始化配置(推荐!避免旧配置干扰)

bash

运行

openclaw init 
⚠️ 关键提示:初始化时会询问「是否设置默认模型(provider)」,直接回车跳过!原因:首次设置的默认模型会写入底层配置,后续更换极难修改,后续通过指令配置更灵活。

2. 百炼大模型配置(国内稳定首选,避坑版)

二、国内第三方平台配置(无需梯子,稳定优先)

1. 能用 ai(国内大模型聚合)

能用 ai 提供 claude - 系列所有模型,支持国内网络直连

步骤 1:获取 API Key

【Claude】获取 Claude API Key 的多种方式全攻略:从入门到精通,再到详解教程!

步骤 2:配置 claude 模型(含 API Key)

bash

运行

openclaw config set 'models.providers.volcengine' --json '{ "baseUrl": "https://ai.nengyongai.cn/v1", # 能用ai OpenAI 兼容接口 "apiKey": "你的Key", "api": "openai-completions", "models": [ { "id": "claude-3-7-sonnet-latest", "name": "claude-3-7", "reasoning": false, "input": ["text"], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 128000, # 上下文窗口128k "maxTokens": 4096 } ] }' 
步骤 3:设置默认模型并验证

bash

运行

# 设置 GLM-4 为默认模型 openclaw models set volcengine/glm-4-7-251222 # 验证配置(显示 volcengine/glm-4-7-251222 即为成功) openclaw models list # 重启网关生效 openclaw gateway restart 
步骤 3:设置默认模型并验证

bash

运行

# 设置 qwen-max 为默认模型 openclaw models set bailian/qwen-max # 查看已配置的所有模型 openclaw models list 

输出中显示 bailian/qwen-max 且标注 default 即为成功。

步骤 4:删除无效模型配置

若之前误操作配置了多余模型,执行以下指令清理:

bash

运行

# 清除特定模型关联 openclaw config unset 'agents.defaults.models.bailian/qwen-max-' # 或清除全局默认模型 openclaw config unset agents.defaults.model.primary 

4. 飞书渠道配置(企业协作必备)

步骤 1:获取飞书 App ID 和 App Secret
  1. 登录 飞书开放平台
  2. 创建企业应用,在「凭证与基础信息」中复制 App IDApp Secret
步骤 2:配置飞书渠道

bash

运行

# 设置 App ID openclaw config set channels.feishu.appId "你的飞书App ID" # 设置 App Secret openclaw config set channels.feishu.appSecret "你的飞书App Secret" 
步骤 3:验证配置

bash

运行

# 查看飞书渠道配置 openclaw config get channels.feishu 

输出正确显示 App ID 和 App Secret 即为配置成功。

四、重装流程(配置混乱时救急)

当配置文件冲突、指令执行报错时,按以下步骤彻底清理重装:

1. 彻底清理旧配置和残留文件

bash

运行

# 1. 删除核心配置目录(请确认无需备份后执行!) rm -rf ~/.openclaw # 2. 清理 Homebrew 残留 brew uninstall openclaw brew cleanup # 3. 清理 npm 全局安装残留(若曾用 npm 安装) npm uninstall -g @openclaw/claw # 4. 清理手动安装残留 sudo rm -f /usr/local/bin/openclaw sudo rm -f /usr/local/bin/claw # 5. 验证清理结果 which openclaw # 应输出 "openclaw not found" which claw # 应输出 "claw not found" ls -la ~/.openclaw 2>/dev/null || echo "✅ 配置目录已彻底清理" 

2. 重新安装 OpenClaw

bash

运行

# 用 curl 一键安装(自动关联 Homebrew) curl -fsSL https://openclaw.ai/install.sh | bash # 验证安装成功 openclaw --version 

五、常用指令速查表(随时查阅)

表格

指令说明
openclaw init重新初始化配置(清理旧设置)
openclaw models list查看所有已配置的模型
openclaw models set <模型ID>设置默认模型(例:ollama/qwen2.5:7b
openclaw config get查看所有配置信息
openclaw config get <配置路径>查看指定配置(例:openclaw config get models.providers.bailian.apiKey
openclaw config set <key> <value>修改配置(例:更换飞书 App ID)
openclaw config unset <key>删除指定配置
openclaw gateway status检查网关运行状态
openclaw --version查看 OpenClaw 版本
ollama serve手动启动本地模型服务
ollama list查看本地已拉取的模型

Read more

使用trae进行本地ai对话机器人的构建

使用trae进行本地ai对话机器人的构建

前言 在人工智能技术快速发展的今天,构建本地AI对话机器人已成为开发者和技术爱好者的热门选择。使用 trae可以高效地实现这一目标,确保数据隐私和响应速度。本文将详细介绍如何利用 Trae 搭建本地AI对话机器人,涵盖环境配置、模型加载、对话逻辑实现以及优化技巧,帮助读者从零开始构建一个功能完整的AI助手。 本地化AI对话机器人的优势在于完全离线运行,避免网络延迟和数据泄露风险,同时支持自定义训练模型以适应特定场景需求。无论是用于个人助理、客服系统,还是智能家居控制,Trae 都能提供灵活的解决方案。 获取api相关信息 打开蓝耘进行登录,如果你是新人的话需要进行注册操作,输入你相关的信息就能进行注册成功 在平台顶部导航栏可以看到Maas平台,点击进入模型广场 来到模型广场可以看到很多的ai模型,比如就有我们的kimi k2模型 点击进去可以看到kimi k2模型的相关信息,我们将模型的id进行复制,等会儿我们是要用到的 /maas/kimi/Kimi-K2-Instruct 并且这里还具有在线体验的功能,生成回答速度快 https://archive.

FileVibe全攻略(四):前端模块化与事件通信实战

FileVibe全攻略(四):前端模块化与事件通信实战

各位开发者,今天我们来聊聊FileVibe前端架构中最巧妙的设计——用CustomEvent实现跨模块通信。当你打开一张图片,AI聊天模块自动知道该分析这张图;当你在文件列表点击,预览模块自动响应——这些看似“魔法”的联动,背后就是事件通信在起作用。 下图是FileVibe的界面布局,左侧文件列表、中间预览区、右侧聊天区,三个模块各自独立却又默契配合: 这三个区域分别由三个独立的模块管理: * 左侧:list.js - 只负责显示文件和文件夹 * 中间:preview.js - 只负责预览文件内容 * 右侧:chat.js - 只负责AI对话和图片解读 它们各司其职,但需要协同工作——比如点击左侧的图片,中间要显示,右侧要准备分析。怎么让它们配合得既紧密又松耦合?这就是今天要讲的事件通信。 获取源代码:Gitee FileVibe(已获得Gitee推荐) 一、先想清楚:我们面临的需求是什么? 在开始写代码之前,我们先停下来想一想:我们到底要解决什么问题? 1.

前端vue3解析上传的视频编码格式,同时判断是否可以在当前浏览器播放

前端vue3解析上传的视频编码格式,同时判断是否可以在当前浏览器播放

技术栈:vue3、JavaScript、vite 依赖库:mediainfo.js: "^0.2.2"、 file-type: "^21.1.1"; 前言         这段时间有接触一个在线聊天的前端项目,其中可以发送图片视频之类的。随后,便发现了一些问题:其中与本文章有关的,就是上传的视频,在当前浏览器有可能无法播放(直接无法播放、或者点击播放,有声音,但无画面)。         经过排查,最后发现,是视频编码问题,部分浏览器不支持H265编码(HEVC)格式的视频播放,导致原生video组件播放异常。         怎么处理呢?一开始想让后台帮忙处理,检测视频格式,并将其转换为H264的编码格式(AVC)。嗯,虽然从结果来说,完全可行,但对服务器资源的消耗还是挺大的,因此不太建议这么做。         那么直接让前端来处理呢?有没有什么豪的方法?有的,