OpenClaw部署与配置教程:在Mac mini上接入国产大模型与飞书

OpenClaw部署与配置教程:在Mac mini上接入国产大模型与飞书

一、准备工作

项目说明
一台Mac mini云服务器、旧电脑、树莓派也可以
飞书账号用来创建机器人
国产模型的apiopenclaw的在配置时仅显示国际的大模型,国产模型需要单独配置

二、部署OpenClaw到mac mini

2.1 快速部署

  1. 稳定版安装:在终端输入以下命令
curl -fsSL https://openclaw.ai/install.sh |bash
  1. 测试版安装(可能包含Bug)
curl -fsSL https://openclaw.ai/install.sh |bash -s -- --beta 
openclawd安装界面

2.2 同意免责声明

安装好后,将会出现一个问题:是否知晓风险,选择Yes就行。

风险提示

2.3 配置模式选择

选择“QuickStart”快速入门模式

快速入门

2.4 模型配置

  • 国际模型支持:OpenClaw默认支持多平台国际大模型

配置选择:如需接入国内大模型,请选择跳过此步骤

在这里插入图片描述

国产模型注意:该配置页面的Kimi、MiniMax、GLM需使用国际版接口

模型配置页面

2.5 聊天软件(Channel)配置

OpenClaw已支持支持很多软件,但是引导流程中显示多为国外应用

在这里插入图片描述


⚠️ 这里请大家先跳过!后续我们通过增加channel的方式添加!(详见下文)

2.6 技能包(Skill)配置

新手暂时无需添加额外技能包,选中 “No” 跳过,按回车键确认;

2.7 Hooks 配置

选中 “Memory”(启用记忆功能,支持多轮对话上下文关联,避免每次聊天都需要重复说明需求),按回车键确认;

Hooks 配置

2.8 等待部署完成

部署完成后,通过命令 openclaw --version 验证版本:

在这里插入图片描述

配置确认后,系统将自动完成部署,耗时约 30 秒 - 1 分钟,无需操作。

在这里插入图片描述

2. 9 汉化版安装(可选)

  • 如英文界面不友好,可安装汉化版:
curl -fsSL -o install.sh https://cdn.jsdelivr.net/gh/1186258278/OpenClawChineseTranslation@main/install.sh &&bash install.sh 
  • 配置方法与英文版相同

三、接入国产大模型

说实话openclaw是比较消耗token的,使用国产大模型是性价比是比较高的。接下来,就演示如何接入国内主流AI提供商。

3.1 深度求索(DeepSeek)

获取APIkey:https://platform.deepseek.com/api_keys
在apiKey处输入你的apikey即可

openclaw config set'models.providers.deepseek' --json '{ "baseUrl": "https://api.deepseek.com/v1", "apiKey": "", "api": "openai-completions", "models": [ { "id": "deepseek-chat", "name": "DeepSeek Chat" }, { "id": "deepseek-reasoner", "name": "DeepSeek Reasoner" } ] }'

设置 models.mode 为 merge

openclaw config set models.mode merge 

设置默认模型(以deepseek-chat为例)

openclaw models set deepseek/deepseek-chat 
龙猫


我这里演示的话使用的是美团的龙猫大模型。

3.2 通用配置模板

如果想要使用其他模型,可以使用以下通用模板接入任何兼容OpenAI协议的模型:

openclaw config set'models.providers.{provider_name}' --json '{ "baseUrl": "https://{baseurl}", "apiKey": "", "api": "openai-completions", "models": [ { "id": "{model_id}", "name": "{model_name}" } ] }'

设置 models.mode 为 merge

openclaw config set models.mode merge 

设置默认模型

openclaw models set{provider_name}/{model_id}

四、接入飞书

4.1 创建飞书企业自建应用

  1. 访问飞书开发者平台(https://open.feishu.cn/app?lang=zh-CN);
  2. 登录后,点击 “创建企业自建应用”;

点击上方的创建版本并发布。

在这里插入图片描述

添加机器人能力:在应用管理页左侧导航栏,找到并点击 “添加应用能力”,在弹出的列表中选择 “机器人”,点击 “添加”。

添加机器人能力

填写应用基础信息:应用名称(如 “傻妞”),选择应用图标,点击 “创建” 按钮,进入应用管理页面。

创建傻妞

4.2 获取飞书应用凭证

  1. 在飞书应用管理页,左侧导航栏找到 “凭据与基础信息” 栏目,点击进入;
  2. 保存完成后,不要关闭飞书开发者平台页面,后续配置权限还需使用。

在页面中找到 “App ID” 和 “App Secret” 两个参数,分别点击右侧 “复制” 按钮,将其保存到记事本或备忘录中;

应用凭证

4.3 添加飞书channel配置

返回终端运行下方命令

openclaw plugins install @m1heng-clawd/feishu 
在这里插入图片描述


再输入以下命令:

openclaw channels add

选择"Yes"以及“飞书”;

在这里插入图片描述


在这里插入图片描述

4.4 输入APP id 与 APP Secret

选择国内的飞书以及不要再群内响应。

在这里插入图片描述

输入上一步获取到的id与secret,回车确认;

在这里插入图片描述

4.5 完成添加流程

  1. 在终端启动网关,运行下方命令:

完成ID与Secret配置后,选择Finish即可;

在这里插入图片描述
openclaw gateway --port 18789 --verbose 
在这里插入图片描述

4.6 飞书机器人配置

飞书应用权限与事件配置
此步骤分为「事件配置」「权限配置」「应用发布」三部分,全程在飞书开发者平台操作,按顺序执行:

4.6.1 事件配置
  1. 在飞书应用管理页,左侧导航栏找到 “事件与回调” 栏目,点击进入;

回调配置:订阅方式选择 “使用长连接”,无需填写其他地址,配置自动生效。

在这里插入图片描述

添加事件:点击页面中的 “添加事件”,在弹出的事件列表中,选择 “消息与群组” 分类,勾选 “接收消息”,点击 “确定”,完成事件订阅。

在这里插入图片描述


在这里插入图片描述

事件配置:在页面中选择 “长连接”,点击 “保存”;

在这里插入图片描述


⚠️ 如果这一步提示“未建立长连接”,请检查自己的APP ID和APP Secret是否已正确配置。

4.6.2 权限配置
  1. 在飞书应用管理页,左侧导航栏找到 “权限管理” 栏目,点击进入;
  2. 粘贴以下JSON代码并导入,等待权限导入完成:

点击页面中的 “批量导入权限” 按钮,弹出权限导入窗口;

在这里插入图片描述


在这里插入图片描述
{"scopes":{"tenant":["contact:user.base:readonly", "im:chat", "im:chat:read", "im:chat:update", "im:message", "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:send_as_bot", "im:resource"], "user":[]}}
  1. 导入验证:页面显示 “导入成功”,且权限列表中出现上述导入的权限,即为配置完成。
4.6.3 发布应用
  1. 在飞书应用管理页,点击进入 “版本管理与发布”

填写版本号与描述后,保存并发布;

在这里插入图片描述

点击“新建版本”

在这里插入图片描述
4.6.4 验证飞书接入
  1. 启动 OpenClaw 网关
openclaw gateway 
  1. 打开飞书APP,进入工作台
  2. 找到已发布的OpenClaw应用(如 “傻妞”),

发送消息测试,如收到回复则接入成功

在这里插入图片描述

五、实用操作命令与技巧

完成基础部署后,掌握以下常用命令将显著提升您的使用效率:

5.1 核心管理命令

命令功能说明示例
openclaw tui启动OpenClaw文本用户界面(终端交互模式)直接输入即可进入交互界面
openclaw gateway restart重启网关服务(配置生效/故障恢复)修改配置后常用此命令
/new在对话中开启新会话线程在TUI或飞书对话中输入

5.2 模型管理命令

# 添加备用模型(主模型不可用时自动切换) openclaw models fallbacks add[提供商代号/模型名称]# 示例:添加OpenAI Codex作为备用 openclaw models fallbacks add openai-codex/gpt-5.2-codex # 设置默认模型 openclaw models set[提供商代号/模型名称]# 示例:将Kimi设为默认编程模型 openclaw models set kimi-code/kimi-for-coding 

六、总结

本教程详细介绍了在Mac mini上部署OpenClaw的全过程,包括基础安装、国产大模型接入以及飞书机器人集成。通过本教程,您可以搭建一个性价比较高的AI助手解决方案,结合国产大模型的经济性和飞书的便捷性,满足日常自动化需求。

说明:所有配置步骤均经过实测,请按照顺序操作。如遇问题,请检查网络连接、API密钥有效性及各步骤的配置准确性。

Read more

MCP客户端与服务端初使用——让deepseek调用查询天气的mcp来查询天气

MCP客户端与服务端初使用——让deepseek调用查询天气的mcp来查询天气

本系列主要通过调用天气的mcp server查询天气这个例子来学习什么是mcp,以及怎么设计mcp。话不多说,我们开始吧。主要参考的是B站的老哥做的一个教程,我把链接放到这里,大家如果有什么不懂的也可以去看一下。 https://www.bilibili.com/video/BV1NLXCYTEbj?spm_id_from=333.788.videopod.episodes&vd_source=32148098d54c83926572ec0bab6a3b1d https://blog.ZEEKLOG.net/fufan_LLM/article/details/146377471 最终的效果:让deepseek-v3使用天气查询的工具来查询指定地方的天气情况 技术介绍 MCP,即Model Context Protocol(模型上下文协议),是由Claude的母公司Anthropic在2024年底推出的一项创新技术协议。在它刚问世时,并未引起太多关注,反响较为平淡。然而,随着今年智能体Agent领域的迅猛发展,MCP逐渐进入大众视野并受到广泛关注。今年2月,

By Ne0inhk
可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

小巧的MCPHost MCPHost 可以在命令行下使用,使大型语言模型(LLM)能够通过模型上下文协议(MCP)与外部工具进行交互。目前支持Claude 3.5 Sonnet和Ollama等。本次实践使用自己架设的Deepseek v3模型,跑通了Time MCP服务。  官网:GitHub - mark3labs/mcphost: A CLI host application that enables Large Language Models (LLMs) to interact with external tools through the Model Context Protocol (MCP). 下载安装 使用非常方便,直接下载解压即可使用。官网提供Windows、Linux和MacOS三个系统的压缩包: https://github.com/

By Ne0inhk
实战篇:Python开发monogod数据库mcp server看完你就会了

实战篇:Python开发monogod数据库mcp server看完你就会了

原创不易,请关注公众号:【爬虫与大模型开发】,大模型的应用开发之路,整理了大模型在现在的企业级应用的实操及大家需要注意的一些AI开发的知识点!持续输出爬虫与大模型的相关文章。 前言 目前mcp协议是给deepseek大模型插上工具链的翅膀,让大模型不仅拥有超高的推理和文本生成能力,还能具备执行大脑意识的工具能力! 如何开发一个mcp? mcp是一种协议,指的是模型上下文协议 (Model Context Protocol)。 官方结成的mcp https://github.com/modelcontextprotocol/python-sdk mcp库 pip install mcp from mcp.server.fastmcp import FastMCP 我们先来做一个简单的案例 from mcp.server.fastmcp import FastMCP import requests mcp = FastMCP("spider") @mcp.tool() def crawl(

By Ne0inhk
AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 作者:高瑞冬 本文目录 * AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 * 一、MCP协议简介 * 二、创建MCP工具集 * 1. 获取MCP服务地址 * 2. 在FastGPT中创建MCP工具集 * 三、测试MCP工具 * 四、AI模型调用MCP工具 * 1. 调用单个工具 * 2. 调用整个工具集 * 五、私有化部署支持 * 1. 环境准备 * 2. 修改docker-compose.yml文件 * 3. 修改FastGPT配置 * 4. 重启服务 * 六、使用MCP-Proxy集成多个MCP服务 * 1. MCP-Proxy简介 * 2. 安装MCP-Proxy * 3. 配置MCP-Proxy * 4. 将MCP-Proxy与FastGPT集成 * 5. 高级配置

By Ne0inhk