【AI领域】OpenClaw 从零到精通:命令全攻略(MAC 最新版)

【AI领域】OpenClaw 从零到精通:命令全攻略(MAC 最新版)

OpenClaw 作为一款强大的 AI 工具调度平台,官方配置文档存在指令过时、国内环境适配差、小白友好度低等问题 —— 尤其是手动编辑 JSON 配置文件、更换大模型 / 渠道时极易踩坑。本文整合了无数次实操验证的经验,修正了过时指令,补充了权限配置、网络适配等关键细节,从安装到进阶配置全程保姆级教学,让新手也能轻松上手。

一、安装方式(优先选 Homebrew,稳定无坑)

1. Homebrew 安装(推荐,适配 macOS/Linux)

步骤 1:安装 Homebrew(国内镜像加速)

如果未安装 Homebrew,使用国内镜像源避免超时:

bash

运行

/bin/bash -c "$(curl -fsSL https://gitee.com/ineo6/homebrew-install/raw/master/install.sh)" 

若已安装但拉取缓慢,更换 Homebrew 核心镜像:

bash

运行

git remote set-url origin https://mirrors.ustc.edu.cn/homebrew-core.git 
步骤 2:添加 Homebrew 到系统 PATH(关键!避免命令找不到)

bash

运行

# 适用于 zsh(macOS 默认终端) echo 'eval "$(/opt/homebrew/bin/brew shellenv)"' >> ~/.zprofile eval "$(/opt/homebrew/bin/brew shellenv)" # 若使用 bash,替换为: # echo 'eval "$(/opt/homebrew/bin/brew shellenv)"' >> ~/.bash_profile # eval "$(/opt/homebrew/bin/brew shellenv)" 
步骤 3:安装 / 重装 OpenClaw

bash

运行

# 若已安装旧版本,先卸载清理 brew uninstall openclaw # 全新安装 brew install openclaw 

2. 快速安装(curl 一键脚本,需先装 Homebrew)

bash

运行

curl -fsSL https://openclaw.ai/install.sh | bash 
提示:curl 安装本质是调用 Homebrew,需确保已完成上述 PATH 配置,否则可能出现 openclaw: command not found

二、网关配置(必做!解决访问权限问题)

1. 检查网关状态

bash

运行

openclaw gateway status 

正常输出应显示 gateway running,若提示权限错误,执行下一步。

2. 修复目录权限(核心避坑点!)

原文中 chmod 600chmod 700 冲突(600 是文件权限,700 是目录权限),正确配置如下:

bash

运行

# 目录权限(读/写/执行仅当前用户) chmod 700 ~/.openclaw # 配置文件权限(读/写仅当前用户) chmod 600 ~/.openclaw/* 
说明:权限错误会导致网关启动失败或配置文件无法读取,务必严格执行。

三、核心配置指令(更换大模型 / 渠道不用改 JSON)

1. 重新初始化配置(推荐!避免旧配置干扰)

bash

运行

openclaw init 
⚠️ 关键提示:初始化时会询问「是否设置默认模型(provider)」,直接回车跳过!原因:首次设置的默认模型会写入底层配置,后续更换极难修改,后续通过指令配置更灵活。

2. 百炼大模型配置(国内稳定首选,避坑版)

二、国内第三方平台配置(无需梯子,稳定优先)

1. 能用 ai(国内大模型聚合)

能用 ai 提供 claude - 系列所有模型,支持国内网络直连

步骤 1:获取 API Key

【Claude】获取 Claude API Key 的多种方式全攻略:从入门到精通,再到详解教程!

步骤 2:配置 claude 模型(含 API Key)

bash

运行

openclaw config set 'models.providers.volcengine' --json '{ "baseUrl": "https://ai.nengyongai.cn/v1", # 能用ai OpenAI 兼容接口 "apiKey": "你的Key", "api": "openai-completions", "models": [ { "id": "claude-3-7-sonnet-latest", "name": "claude-3-7", "reasoning": false, "input": ["text"], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 128000, # 上下文窗口128k "maxTokens": 4096 } ] }' 
步骤 3:设置默认模型并验证

bash

运行

# 设置 GLM-4 为默认模型 openclaw models set volcengine/glm-4-7-251222 # 验证配置(显示 volcengine/glm-4-7-251222 即为成功) openclaw models list # 重启网关生效 openclaw gateway restart 
步骤 3:设置默认模型并验证

bash

运行

# 设置 qwen-max 为默认模型 openclaw models set bailian/qwen-max # 查看已配置的所有模型 openclaw models list 

输出中显示 bailian/qwen-max 且标注 default 即为成功。

步骤 4:删除无效模型配置

若之前误操作配置了多余模型,执行以下指令清理:

bash

运行

# 清除特定模型关联 openclaw config unset 'agents.defaults.models.bailian/qwen-max-' # 或清除全局默认模型 openclaw config unset agents.defaults.model.primary 

4. 飞书渠道配置(企业协作必备)

步骤 1:获取飞书 App ID 和 App Secret
  1. 登录 飞书开放平台
  2. 创建企业应用,在「凭证与基础信息」中复制 App IDApp Secret
步骤 2:配置飞书渠道

bash

运行

# 设置 App ID openclaw config set channels.feishu.appId "你的飞书App ID" # 设置 App Secret openclaw config set channels.feishu.appSecret "你的飞书App Secret" 
步骤 3:验证配置

bash

运行

# 查看飞书渠道配置 openclaw config get channels.feishu 

输出正确显示 App ID 和 App Secret 即为配置成功。

四、重装流程(配置混乱时救急)

当配置文件冲突、指令执行报错时,按以下步骤彻底清理重装:

1. 彻底清理旧配置和残留文件

bash

运行

# 1. 删除核心配置目录(请确认无需备份后执行!) rm -rf ~/.openclaw # 2. 清理 Homebrew 残留 brew uninstall openclaw brew cleanup # 3. 清理 npm 全局安装残留(若曾用 npm 安装) npm uninstall -g @openclaw/claw # 4. 清理手动安装残留 sudo rm -f /usr/local/bin/openclaw sudo rm -f /usr/local/bin/claw # 5. 验证清理结果 which openclaw # 应输出 "openclaw not found" which claw # 应输出 "claw not found" ls -la ~/.openclaw 2>/dev/null || echo "✅ 配置目录已彻底清理" 

2. 重新安装 OpenClaw

bash

运行

# 用 curl 一键安装(自动关联 Homebrew) curl -fsSL https://openclaw.ai/install.sh | bash # 验证安装成功 openclaw --version 

五、常用指令速查表(随时查阅)

表格

指令说明
openclaw init重新初始化配置(清理旧设置)
openclaw models list查看所有已配置的模型
openclaw models set <模型ID>设置默认模型(例:ollama/qwen2.5:7b
openclaw config get查看所有配置信息
openclaw config get <配置路径>查看指定配置(例:openclaw config get models.providers.bailian.apiKey
openclaw config set <key> <value>修改配置(例:更换飞书 App ID)
openclaw config unset <key>删除指定配置
openclaw gateway status检查网关运行状态
openclaw --version查看 OpenClaw 版本
ollama serve手动启动本地模型服务
ollama list查看本地已拉取的模型

Read more

AI能赚钱?别被割韭菜了!深度拆解:为什么你学了100个AI工具却赚不到1分钱

AI能赚钱?别被割韭菜了!深度拆解:为什么你学了100个AI工具却赚不到1分钱

🌟 核心真相:AI是放大器,不是印钞机。没有商业认知的AI技能,就像给不会开车的人发了一辆法拉利——只会原地打转,甚至翻车。 目录 🌪️ 引言:那个学了30个AI工具却亏了5万的朋友 🎤 一、"AI能赚钱 ≠ 人人能赚钱" 🔍 金句实录: 🤯 二、残酷真相:AI工具≠赚钱能力 🔍 你是不是也这样? 💡 关键洞察:工具只是"术",商业才是"道" 🧭 三、破局三板斧:普通人也能启动的AI变现逻辑 🎯 第一板斧:标签聚焦——"别人想起你时,第一个词是什么?" ✅ 正确姿势(调研数据): 🌱 第二板斧:70分哲学——"服务30分的客户,你就是专家" 🌰 真实案例: ✅ 三步启动法(新手友好)

ToDesk重磅更新, 硬核-ToClaw AI 实现科技新闻日报自动化实战

ToDesk重磅更新, 硬核-ToClaw AI 实现科技新闻日报自动化实战

一、前言 最近发现ToDesk悄悄更新,直接内置了 ToClaw 龙虾AI,真的格外惊喜!之前看中轻量化OpenClaw却被繁琐的本地部署、代码搭建劝退,如今不用任何前置准备,打开就能用。刚好我想做一款省心的每日科技新闻自动播报工具,省去手动搜资讯的麻烦,索性直接实测,从功能上手、实操任务到同类对比,全程分享真实体验,不吹不黑,看看这款桌面AI助手到底好不好用。 二、界面与入口 最新版ToDesk的 ToClaw 入口设在首页醒目位置,我下载的是4.8.7.1版本。 不用翻找多级菜单,打开就能快速定位,上手零难度,点开直接进入交互界面,操作极简高效。 启动ToClaw后会自动生成专属悬浮窗,支持全局一键唤醒,不管是办公、整理文件还是使用其他软件,都能随时呼出AI,不用切换界面,日常使用便捷度拉满,实测顺手不耽误手头操作。 三、核心架构 简单说下ToClaw的底层逻辑,OpenClaw并非独立运算模型,而是轻量化交互载体,负责衔接用户与AI核心算力,不占用过多内存,这也是它轻量化的关键,所有智能处理全靠底层内核支撑,

保姆级教程:Windows本地部署Ollama+OpenClaw,打造你的AI赚钱系统(APP开发/量化/小说/剪辑)

摘要:想用AI搞钱但卡在技术门槛?本文手把手教你用一台Windows电脑,零成本本地部署Ollama大模型+OpenClaw智能中枢,赋予AI开发APP、量化分析、编写小说、剪辑辅助等“赚钱技能”。全程无需编程基础,跟着鼠标点、照着命令敲,即可拥有24小时待命的AI员工。 一、写在前面 很多朋友对AI变现跃跃欲试,却常被这些问题劝退: * 云端部署太贵,API调用怕浪费钱 * 技术文档看不懂,不知道从哪下手 * 数据隐私担忧,不敢把敏感资料上传 其实,你手头那台Windows电脑完全能胜任!本文将带你搭建一套完全本地化、免费、可扩展的AI生产力系统,让AI帮你写代码、分析表格、生成文案、处理视频,真正把AI变成你的“赚钱工具”。 系统架构: * 本地大脑:Ollama + DeepSeek模型,负责理解任务、生成内容 * 智能中枢:OpenClaw(原名OpenClaude),负责调用各类工具(Skill) * 赚钱技能:通过安装Skill包,让AI具备特定领域的实操能力 适用人群:

深入解析Stable Diffusion基石——潜在扩散模型(LDMs)

深入解析Stable Diffusion基石——潜在扩散模型(LDMs)

一、技术解读:潜在扩散模型——高分辨率图像合成的范式革命 1.1 核心动机:破解“质量-效率-可控性”的不可能三角 在潜在扩散模型(Latent Diffusion Models, LDMs)出现之前,高分辨率图像生成领域长期存在一个“不可能三角”:生成质量、计算效率、可控性难以兼得。 * GANs:能快速生成高质量图像,但训练极其不稳定,易出现模式崩溃(多样性差),且实现复杂条件的可控生成需要为不同任务设计特定架构,工程化成本极高。 * VAEs:训练稳定、架构简单,但其优化目标过度依赖像素级损失+强正则化,导致生成图像模糊、细节丢失严重,无法满足高保真生成需求。 * 像素空间扩散模型(DMs):生成质量顶尖,并支持无需重新训练的灵活引导(如修复、上色、超分),但其在百万维度的像素空间中直接进行迭代去噪,导致训练成本(通常需数百个GPU天)和推理成本(生成一张图需数分钟)高昂,仅能在超算中心或大厂落地,