Mac mini 部署 Ollama + OpenClaw 实践指南与养虾心得

1、环境准备

1.1 HomeBrew安装

在终端输入安装命令:

/bin/zsh -c "$(curl -fsSL https://gitee.com/cunkai/HomebrewCN/raw/master/Homebrew.sh)" 

选择清华大学镜像,选择镜像源时使用阿里镜像,完成Homebrew 安装

1.2 安装 Git

在终端输入命令:

brew install git 

回车执行,完成git 安装

1.3 安装 Node.js

进入官网:https://nodejs.org/zh-cn/download,按照提示执行:

# 下载并安装 nvm:curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh |bash# 代替重启 shell\. "$HOME/.nvm/nvm.sh"# 下载并安装 Node.js: nvm install24# 验证 Node.js 版本:node-v# Should print "v24.14.0".# 验证 npm 版本:npm-v# Should print "11.9.0".

回车执行,完成node 安装

1.4 安装 OpenClaw

首先输入下方命令,将 npm 下载源切换为国内镜像,提高下载速度:

npm config set registry https://registry.npmmirror.com 

然后输入下方命令,避免 GitHub 的 SSH 配置问题:

git config --global url."https://github.com/".insteadOf ssh://[email protected]/ 

最后执行安装命令:

sudo npm install -g openclaw@latest 

OpenClaw 安装完成。

2、Ollama部署

2.1 Ollama介绍

Ollama 是一个开源的本地化大模型部署工具,旨在简化大型语言模型的安装、运行和管理。它支持多种模型架构,并提供与 OpenAI 兼容的 API 接口,非常适合开发者和个人用户快速搭建私有化 AI 服务。

网址:https://ollama.com/

2.2 安装 Ollama

在终端输入命令进行ollama安装:

curl-fsSL https://ollama.com/install.sh |sh

2.3 Ollama模型选择

OpenClaw 在运行过程中需要加载大语言模型,内存容量直接影响模型的运行效率和多任务处理能力。根据实际测试,16GB 内存的 Mac mini 可以流畅运行 7B 量化级别的模型,如qwen3.3:9b等。

实测:gpt-oss:20b模型很难在Mac mini 16G运行,其余7-9b模型思考能力差,得出结果不及预期,因此选择cloud模型,目前较好的且较为推荐的模型为:

  • kimi-k2.5:cloud — Multimodal reasoning with subagents
  • minimax-m2.5:cloud — Fast, efficient coding and real-world productivity
  • glm-5:cloud — Reasoning and code generation

ollama会有每周的免费额度(可以准备多个账号)实测一个账号可以中强度使用2天:

在这里插入图片描述

ollama获取模型:

#获取minimax2.5云模型 ollama pull minimax-m2.5:cloud 

2.4 Ollama使用

可直接使用ollama的客户端进行对话:

在这里插入图片描述

需要进行的设置:

在这里插入图片描述

Context Length:是指模型在内存中可以访问的最大 token 数量,可以理解为模型的"工作记忆"。

  • 上下文越长,消耗的显存越多
  • 需要处理大量内容的任务(如网页搜索、代码生成、Agent 工具调用)建议设置至少 64000 个 token

3、OpenClaw部署

2.1 OpenClaw介绍

OpenClaw(原名 Clawdbot、Moltbot)是由奥地利天才程序员 Peter Steinberger 开发的一款开源个人 AI 助手平台,2026 年初正式加入 OpenAI 公司。其核心架构由 Gateway(网关)、Agent(智能体)、Skills(技能)和 Memory(记忆)四大模块构成,能够运行在用户本地设备上,并通过多种聊天平台与之互动。

与传统 AI 助手(如 ChatGPT、Kimi)不同,OpenClaw 不仅能“动口”(回答问题),还能“动手”——它可以直接执行电脑操作,包括运行 Shell 命令、读写文件、管理邮件、操控浏览器等。这种“能动手”的特性让它成为了真正的生产力工具。

2.2 OpenClaw安装

执行安装命令:

sudo npm install -g openclaw@latest 

如果终端出现类似 added xxx packages 的提示,OpenClaw 安装完成。

OpenClaw 的核心配置文件位于 ~/.openclaw/openclaw.json,需要确保语法合法且适配所选模型

2.3 Ollama运行OpenClaw

Ollama+OpenClaw介绍网站:https://docs.ollama.com/integrations/openclaw

Ollama启动OpenClaw(使用kimi-k2.5:cloud模型)

ollama launch openclaw --model kimi-k2.5:cloud 

启动成功后,在浏览器中访问 http://127.0.0.1:18789 即可进入 OpenClaw 的管理界面。

2.4 OpenClaw tool

工具介绍:https://docs.openclaw.ai/zh-CN/tools

需要设置openClaw的模式(按需设置),没有exec权限很多事情都没法做,执行:

openclaw config set tools.profile "full"

OpenClaw CLI 的配置命令,用于将工具配置文件的预设模式设置为 “full”(完整模式)

tools.profile 设置 tools.allow/tools.deny 之前的基础工具白名单

  • minimal:仅 session_status
  • codinggroup:fsgroup:runtimegroup:sessionsgroup:memoryimage
  • messaginggroup:messagingsessions_listsessions_historysessions_sendsession_status
  • full:无限制(与未设置相同)

2.5 OpenClaw skill

技能是 OpenClaw 生态的核心组成部分,相当于 AI Agent 的“肌肉记忆”。通过安装不同的技能,OpenClaw 可以完成各种专业化任务。

安装技能:使用 claw skill install 命令或通过 ClawHub 图形界面安装。例如:

openclaw skill install xianyu-auto-reply openclaw skill install ecommerce-customer-service openclaw skill install telegram-bot 

常用技能推荐

  • Baidu Web Search / Baidu Baike Search:百度搜索和百科检索技能
  • Baidu Scholar Search:学术文献检索
  • auto-updater:自动更新 Clawdbot 和升级技能
  • subagent-driven-development:多 Agent 协作管理
  • vector-memory:向量记忆搜索,解决长对话上下文记忆不准确的问题

2.6 OpenClaw连接飞书

2.6.1 飞书配置

飞书开放平台:https://open.feishu.cn

在这里插入图片描述

添加机器人:

在这里插入图片描述

在权限管理中搜索 im: 并开通消息相关权限:

在这里插入图片描述

创建版本并发布,机器人创建完成。

2.6.2 连接飞书&OpenClaw

命令行输入:

openclaw config 

配置流程:选择 Feishu,通过 npm 安装插件,输入飞书 App Secret与App ID

2.6.3 飞书事件配置

设置事件&回调:

完成配置,测试飞书:

在这里插入图片描述

2.7 OpenClaw配置

workspace配置文件:

在这里插入图片描述


OpenClaw 的 workspace 位于 ~/.openclaw/workspace/ 目录,存放了 AI Agent 的核心配置文件,这些文件共同定义了 Agent 的行为模式、人格设定和工作流程。

2.7.1 核心配置文件

AGENTS.md 是工作空间的行为规范,类似于员工手册。它定义了 AI 的工作流程、启动流程、安全规则和记忆管理规范。该文件具有最高优先级,AI 只可读取而不能自行修改(除非用户明确指示才能追加内容)。每次新会话开始时,Agent 都会读取此文件来恢复工作状态。

SOUL.md 相当于 Agent 的“三观”,它定义了 Agent 的核心原则与认知方式,比如回答风格、禁止使用的话术等。Agent 可以根据互动情况修改此文件。

USER.md 是用户画像说明书,详细记录了用户的身份、偏好、时区、关注点等信息。这个文件决定了 AI 如何个性化地与用户交互

IDENTITY.md 定义 Agent 的社会身份认知,例如“我叫小爪,是一只数字猫”。Agent 可以根据互动修改此文件来调整自己的身份设定。

2.7.2 记忆系统文件

MEMORY.md 是长期记忆的索引层,存储关于用户、能力概览、记忆索引等核心信息。该文件保持精简(建议不超过40行),作为记忆的“目录”存在。Agent 可以写入蒸馏后的重要知识。

memory/YYYY-MM-DD.md 是每日日志文件,记录每天的原始对话和操作记录。随着时间推移,AI 会自动将重要信息从每日日志中提炼到 MEMORY.md 中。

memory/projects.md 存储各项目的当前状态与待办事项。

memory/lessons.md 记录踩过的坑和解决方案,按严重程度分级。

memory/infra.md 存放服务器、API、部署等基础设施配置的速查信息。

2.7.3 特殊功能文件

HEARTBEAT.md 定义后台定期检查的任务,使 Agent 能够在没有用户提示的情况下主动监控和提供服务。例如监控服务器状态、检测异常等,这是 OpenClaw 与普通聊天机器人的核心区别之一。

BOOTSTRAP.md 是一次性引导文件。当部署新的工作空间时,该文件会引导用户完成命名、人格设定、USER.md 填写等初始配置步骤。所有配置完成后,该文件会被自动删除。

TOOLS.md 是对已安装技能(Skills)的个性化配置,类似于“备忘单”。虽然 Skills 目录存放的是第三方技能的代码逻辑,但 TOOLS.md 决定了这些技能的具体使用方式,比如发邮件用的 SMTP 服务器地址或默认发件人昵称。

2.7.4 文件写入
写入soul中,以后每次在执行我给你的任务的时候,需要注意:遇到问题时候,先自己尝试去通过浏览器等途径去学习,如果要安装新功能,通过exec执行进行安装,在安装前询问我是否可以进行安装,尽量能解决完问题再告诉我,实在无法完成,通知我进行操作 
在这里插入图片描述
在这里插入图片描述

2.8 OpenClaw测试

2.8.1 定时任务,通过飞书发送博客更新监控和每日AI新闻
在这里插入图片描述
2.8.2 生成监控页面测试
 生成一个openclaw消耗token,反应时间的展示页面,然后接入你的数据,给我提供实时的展示 
在这里插入图片描述


在这里插入图片描述
2.8.3 小红书发布内容测试
在这里插入图片描述


在这里插入图片描述
2.8.4 小红书发布skill测试
学习一下这个skill,需要什么自己去学习,然后进行实践https://github.com/Xiangyu-CAS/xiaohongshu-ops-skill 
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

Read more

安装 启动 使用 Neo4j的超详细教程

安装 启动 使用 Neo4j的超详细教程

最近在做一个基于知识图谱的智能生成项目。需要用到Neo4j图数据库。写这篇文章记录一下Neo4j的安装及其使用。 一.Neo4j的安装 1.首先安装JDK,配环境变量。(参照网上教程,很多) Neo4j是基于Java的图形数据库,运行Neo4j需要启动JVM进程,因此必须安装JAVA SE的JDK。从Oracle官方网站下载 Java SE JDK。我使用的版本是JDK1.8 2.官网上安装neo4j。 官方网址:https://neo4j.com/deployment-center/  在官网上下载对应版本。Neo4j应用程序有如下主要的目录结构: bin目录:用于存储Neo4j的可执行程序; conf目录:用于控制Neo4j启动的配置文件; data目录:用于存储核心数据库文件; plugins目录:用于存储Neo4j的插件; 3.配置环境变量 创建主目录环境变量NEO4J_HOME,并把主目录设置为变量值。复制具体的neo4j文件地址作为变量值。 配置文档存储在conf目录下,Neo4j通过配置文件neo4j.conf控制服务器的工作。默认情况下,不需

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程 在数字化办公日益普及的今天,企业微信作为国内领先的企业级通讯工具,其群机器人功能为团队协作带来了极大的便利。本文将手把手教你如何从零开始配置企业微信群机器人Webhook,实现自动化消息推送,提升团队沟通效率。 1. 准备工作与环境配置 在开始创建机器人之前,需要确保满足以下基本条件: * 企业微信账号:拥有有效的企业微信管理员或成员账号 * 群聊条件:至少包含3名成员的群聊(这是创建机器人的最低人数要求) * 网络环境:能够正常访问企业微信服务器 提示:如果是企业管理员,建议先在"企业微信管理后台"确认机器人功能是否已对企业开放。某些企业可能出于安全考虑会限制此功能。 2. 创建群机器人 2.1 添加机器人到群聊 1. 打开企业微信客户端,进入目标群聊 2. 点击右上角的群菜单按钮(通常显示为"..."或"⋮") 3. 选择"添加群机器人"选项 4.

Flowise物联网融合:与智能家居设备联动的应用设想

Flowise物联网融合:与智能家居设备联动的应用设想 1. Flowise:让AI工作流变得像搭积木一样简单 Flowise 是一个真正把“AI平民化”落地的工具。它不像传统开发那样需要写几十行 LangChain 代码、配置向量库、调试提示词模板,而是把所有这些能力打包成一个个可拖拽的节点——就像小时候玩乐高,你不需要懂塑料怎么合成,只要知道哪块该拼在哪,就能搭出一座城堡。 它诞生于2023年,短短一年就收获了45.6k GitHub Stars,MIT协议开源,意味着你可以放心把它用在公司内部系统里,甚至嵌入到客户交付的产品中,完全不用担心授权问题。最打动人的不是它的技术多炫酷,而是它真的“不挑人”:产品经理能搭出知识库问答机器人,运营同学能配出自动抓取竞品文案的Agent,连刚学Python两周的实习生,也能在5分钟内跑通一个本地大模型的RAG流程。 它的核心逻辑很朴素:把LangChain里那些抽象概念——比如LLM调用、文档切分、向量检索、工具调用——变成画布上看得见、摸得着的方块。你拖一个“Ollama LLM”节点,再拖一个“Chroma Vector

OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。 准备工作 飞书 创建飞书机器人 访问飞书开放平台:https://open.feishu.cn/app,点击创建应用: 填写应用名称和描述后就直接创建: 复制App ID 和 App Secret 创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中 配置权限 点击【权限管理】→【开通权限】 或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图 点击【下一步,确认新增权限】即可开通所需要的权限。 配置事件与回调 说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,