Windows上部署OpenClaw+DeepSeek+ 飞书,实现飞书对本地电脑的AI控制

Windows上部署OpenClaw+DeepSeek+ 飞书,实现飞书对本地电脑的AI控制
OpenClaw 火的离谱,核心在于AI智能体向数字人迈向了坚实的一步,每个人拉个群,然后下达任务,一堆AI反馈“收到”的美好生活来临了,快点在本地部署一下吧。

📋 什么是 OpenClaw?

OpenClaw 是一个开源的 AI 助手框架,支持多种大语言模型,可以本地部署,还能集成到飞书等协作工具中。有了它,你就可以:

  • ✅ 在本地运行 AI 助手,数据更安全
  • ✅ 通过 Web UI 界面与 AI 对话
  • ✅ 集成到飞书,随时随地使用
  • ✅ 操作本地文件,提升工作效率

🛠️ 安装步骤

第一步:安装 OpenClaw

首先,我们需要全局安装 OpenClaw。打开命令行工具(PowerShell 或 CMD),执行以下命令:

npm install -g openclaw@latest 

如果你使用的是 pnpm,也可以这样安装:

pnpm add -g openclaw@latest 

第二步:初始化并安装守护进程

安装完成后,运行初始化命令:

openclaw onboard --install-daemon 

这个命令会自动完成基础配置并安装守护进程,让 OpenClaw 可以在后台运行。

⚙️ 配置自己的 AI 模型

找到配置文件

安装完成后,我们需要配置自己的 AI 模型。配置文件位于:

C:\Users\你的用户名\.openclaw\openclaw.json 

配置 DeepSeek 模型示例

以配置 DeepSeek 为例,我们直接修改配置文件。以下是我的完整的配置示例:

{   "auth": {     "profiles": {       "deepseek:default": {         "provider": "deepseek",         "mode": "api_key"       }     }   },   "models": {     "mode": "merge",     "providers": {       "deepseek": {         "baseUrl": "https://api.deepseek.com/v1",         "apiKey": "修改为自己的 API KEY",         "api": "openai-completions",         "models": [           {             "id": "deepseek-chat",             "name": "DeepSeek Chat",             "reasoning": false,             "input": ["text"],             "cost": {               "input": 0,               "output": 0,               "cacheRead": 0,               "cacheWrite": 0             },             "contextWindow": 128000,             "maxTokens": 8192           }         ]       }     }   },   "agents": {     "defaults": {       "model": {         "primary": "deepseek/deepseek-chat"       },       "models": {         "deepseek/deepseek-chat": {           "alias": "DeepSeek Chat"         }       }     }   } } 

重要提示:

  • 🔑 记得将 apiKey 替换为你自己的 DeepSeek API Key
  • 📝 如果你使用的是其他模型(如 Qwen、GPT 等),可以按照类似的格式进行配置
  • 💾 修改配置文件后记得保存

🚀 启动服务

配置完成后,启动 OpenClaw 网关服务:

openclaw gateway restart 

启动成功后,打开浏览器访问:

http://127.0.0.1:18789/ 

验证连接状态

连接失败的情况:

如果 API Key 配置错误或网络问题,界面会显示连接失败的错误提示。此时需要检查:

  • ✅ API Key 是否正确
  • ✅ 网络连接是否正常
  • ✅ 配置文件格式是否正确

NOKEY

NOKEY

连接成功的情况:

如果一切正常,你就可以在 Web UI 界面中与 AI 进行对话了!界面简洁友好,使用体验流畅。

key

key

📱 配置飞书集成

想要在飞书中使用 OpenClaw?没问题!参考以下教程:

👉 腾讯云开发者社区教程

常见问题解决

在配置飞书集成时,可能会遇到以下错误(我的windows环境一直遇到):

[openclaw] Failed to start CLI: Error: spawn npm ENOENT 

解决方法:我手动安装飞书扩展解决

如果遇到上述错误,可以按照以下步骤手动安装:

  1. 进入 OpenClaw 配置目录
cd "C:\Users\你的用户名\.openclaw" 
  1. 安装飞书扩展包
npm install @m1heng-clawd/feishu 
  1. 创建扩展目录并复制文件
# 创建文件夹 mkdir extensions mkdir extensions\feishu # 复制文件到扩展目录 xcopy /E /Y "node_modules\@m1heng-clawd\feishu\*" "extensions\feishu\" 
  1. 安装依赖
cd extensions\feishu npm install --prod 

完成以上步骤后,重新启动 OpenClaw 服务即可。

二次授权

在飞书中第一次发送消息时,OpenClaw 会要求进行二次授权。这是正常的安全机制,只需要:

  1. 点击授权链接
  2. 按照提示完成授权操作
  3. 授权完成后即可正常使用

二次授权

二次授权

🎉 使用效果

配置完成后,你就可以通过飞书操作本地的 OpenClaw 了!

主要功能包括:

  • 📁 查看本地文件:直接在飞书中查看电脑上的文件
  • ✏️ 生成文件:让 AI 帮你创建和编辑文件
  • 💬 智能对话:随时随地向 AI 提问
  • 🔧 自动化操作:执行各种本地操作任务

查看文件

查看文件

生成文件

生成文件

💡 使用技巧

  1. 多模型支持:可以在配置文件中添加多个模型提供商,根据需要切换使用
  2. 安全提醒:API Key 是敏感信息,不要分享给他人
  3. 性能优化:如果本地资源有限,可以调整模型的上下文窗口大小
  4. 定期更新:保持 OpenClaw 和扩展的最新版本,获得更好的体验

📚 参考资源

  • 🌐 OpenClaw 官方 GitHub
  • 📖 飞书集成教程

🎯 总结

OpenClaw 和飞书,钉钉等移动软件打通,后续考虑将其和Cursor,Claude Code 打通,真正实现让AI全天打工,自己在远处进行任务下达。进入人-Agent交互新阶段

我是AI时代原住民,如果看到这里,欢迎点个推荐AI时代,你最大的能力变迁:从“我不行”到“我能行”!

AI重构软件研发全流程走向落地!亚马逊发布「AI驱动开发」全新方法论,完整解读十大核心原则

AI开发新范式——规范驱动开发(SDD)【第三篇】:通过OpenSpec实现增量开发

一图介绍清楚基于Spec Kit 框架的SDD(规范驱动开发)的详细过程【SDD第二讲]

五分钟带你理解AI时代的软件研发新范式——SDD(规格驱动开发) 【SDD第一讲】

重温氛围编程:是AI开发的明日新星还是皇帝的新装

华为《智能世界2035》揭示软件未来:人机协同编程重塑软件开发格局

2:AI重构软件组织:

AI组织-未来已来:10年以后的组织是什么样子?

AI组织是什么样子?来自微软的最新分析 – The Year of the Frontier Firm:

3:软件工程本质思考:

AI时代,重新温习软件工程经典巨作,思考软件工程的本质

研发提效的本质:不是让程序员拼命踩油门,而是为价值修一条高速公路

AI时代重温经典:《管理大型软件系统的开发》

AI时代重温经典,梳理软件工程的本质:高效构建软件的工程智慧

4: 模型本质的认识:

OpenAI深度揭秘大语言模型的幻觉本质

5: 软件智能测试:

AI在软件测试中的理想与现实:一场尚未到来的革命

6: AI实战

SDD开发实战:3小时从零构建可私有部署的AI助手

AI协同开发范式RIPER-5实战:从零构建图书馆管理系统

SDD(Spec驱动开发)实战新范式:SDDAgent驱动SDD端到端开发流

7: 行业技术

持续进化,从“上下文工程”到“Agent工程”,LangChain给出Agent开发的核心范式

Read more

OpenClaw WebUI 中 Chat 的工作流程及主要程序名称

## 整体架构 OpenClaw WebUI 是一个基于 Web Components 的现代前端应用,提供了直观的聊天界面来与 OpenClaw Agent 进行交互。 ## 主要程序名称 ### 前端程序 1. control-ui/index.html - WebUI 主页面 2. control-ui/assets/index-BeKTXH1m.js - 打包后的前端核心代码 3. control-ui/assets/index-DWhx-9JL.css - 前端样式文件 ### 后端服务 1. Gateway 服务 - 运行在端口 18789,提供 API 端点 2. Agent 服务 - 处理代理逻辑 3.

IntelliJ IDEA 运行 Tomcat 报错:Please, configure Web Facet first!

IntelliJ IDEA 运行 Tomcat 报错:Please, configure Web Facet first!

适用:IntelliJ IDEA Ultimate 关键点:Web Facet + Artifact(war exploded)+ Tomcat Deployment 本文同时覆盖两种项目结构: 1)普通 Web 目录结构(例如项目里有 web/WEB-INF) 2)Maven 标准结构(src/main/webapp) 0. 你遇到的现象是什么? 当你在 IDEA 里运行 Tomcat(或尝试打开浏览器访问)时,弹出提示: Browser Error Please, configure Web Facet first! 这句话的真实含义是:IDEA 还没把你的模块识别为 Web 模块,因此无法正确识别 Web 根目录、

Ollama 结合 Open-WebUI 本地运行大模型

Ollama 结合 Open-WebUI 本地运行大模型

1. 一、Ollama 简介 2. 二、Docker安装 Ollama 3. 三、Open-WebUI 4. 四、文档链接 本文介绍了如何使用 Ollama 在本地运行大型语言模型,以及利用 Open-WebUI 提供的图形化界面与大语言模型进行交互。 一、Ollama 简介 Ollama 是一个开源框架,专门设计用于在本地运行大型语言模型(LLM)。它的主要特点和功能如下: * 简化部署:Ollama 旨在简化在 Docker 容器中部署 LLM 的过程,使得管理和运行这些模型变得更加容易。安装完成后,用户可以通过简单的命令行操作启动和运行大型语言模型。例如,要运行 Gemma 2B 模型,只需执行命令 ollama run gemma:2b。 * 捆绑模型组件:它将模型权重、

彻底弄懂Web Storage与Cookie:从机制到应用的全方位对比

彻底弄懂Web Storage与Cookie:从机制到应用的全方位对比

彻底弄懂Web Storage与Cookie:从机制到应用的全方位对比 * 引言 * 1. 什么是Cookie? * Cookie 的核心特性: * Cookie 流程图 * 2. 什么是Web Storage? * Web Storage 流程图 * 3. 核心区别深度解析(对标选项逐一解读) * a. 存储容量 * b. 网络流量(带宽浪费) * c. 作用域与跨域 * d. API 易用性 * e. 设计初衷 * f. 历史兼容与封装 * 4. 总结对比表 * 5. 应用场景建议 * 什么时候选 Cookie? * 什么时候选 Web Storage? * 6. 结语 🌺The Begin🌺点点关注,收藏不迷路🌺 引言 在前端开发中,