Windows上部署OpenClaw+DeepSeek+ 飞书,实现飞书对本地电脑的AI控制

Windows上部署OpenClaw+DeepSeek+ 飞书,实现飞书对本地电脑的AI控制
OpenClaw 火的离谱,核心在于AI智能体向数字人迈向了坚实的一步,每个人拉个群,然后下达任务,一堆AI反馈“收到”的美好生活来临了,快点在本地部署一下吧。

📋 什么是 OpenClaw?

OpenClaw 是一个开源的 AI 助手框架,支持多种大语言模型,可以本地部署,还能集成到飞书等协作工具中。有了它,你就可以:

  • ✅ 在本地运行 AI 助手,数据更安全
  • ✅ 通过 Web UI 界面与 AI 对话
  • ✅ 集成到飞书,随时随地使用
  • ✅ 操作本地文件,提升工作效率

🛠️ 安装步骤

第一步:安装 OpenClaw

首先,我们需要全局安装 OpenClaw。打开命令行工具(PowerShell 或 CMD),执行以下命令:

npm install -g openclaw@latest 

如果你使用的是 pnpm,也可以这样安装:

pnpm add -g openclaw@latest 

第二步:初始化并安装守护进程

安装完成后,运行初始化命令:

openclaw onboard --install-daemon 

这个命令会自动完成基础配置并安装守护进程,让 OpenClaw 可以在后台运行。

⚙️ 配置自己的 AI 模型

找到配置文件

安装完成后,我们需要配置自己的 AI 模型。配置文件位于:

C:\Users\你的用户名\.openclaw\openclaw.json 

配置 DeepSeek 模型示例

以配置 DeepSeek 为例,我们直接修改配置文件。以下是我的完整的配置示例:

{   "auth": {     "profiles": {       "deepseek:default": {         "provider": "deepseek",         "mode": "api_key"       }     }   },   "models": {     "mode": "merge",     "providers": {       "deepseek": {         "baseUrl": "https://api.deepseek.com/v1",         "apiKey": "修改为自己的 API KEY",         "api": "openai-completions",         "models": [           {             "id": "deepseek-chat",             "name": "DeepSeek Chat",             "reasoning": false,             "input": ["text"],             "cost": {               "input": 0,               "output": 0,               "cacheRead": 0,               "cacheWrite": 0             },             "contextWindow": 128000,             "maxTokens": 8192           }         ]       }     }   },   "agents": {     "defaults": {       "model": {         "primary": "deepseek/deepseek-chat"       },       "models": {         "deepseek/deepseek-chat": {           "alias": "DeepSeek Chat"         }       }     }   } } 

重要提示:

  • 🔑 记得将 apiKey 替换为你自己的 DeepSeek API Key
  • 📝 如果你使用的是其他模型(如 Qwen、GPT 等),可以按照类似的格式进行配置
  • 💾 修改配置文件后记得保存

🚀 启动服务

配置完成后,启动 OpenClaw 网关服务:

openclaw gateway restart 

启动成功后,打开浏览器访问:

http://127.0.0.1:18789/ 

验证连接状态

连接失败的情况:

如果 API Key 配置错误或网络问题,界面会显示连接失败的错误提示。此时需要检查:

  • ✅ API Key 是否正确
  • ✅ 网络连接是否正常
  • ✅ 配置文件格式是否正确

NOKEY

NOKEY

连接成功的情况:

如果一切正常,你就可以在 Web UI 界面中与 AI 进行对话了!界面简洁友好,使用体验流畅。

key

key

📱 配置飞书集成

想要在飞书中使用 OpenClaw?没问题!参考以下教程:

👉 腾讯云开发者社区教程

常见问题解决

在配置飞书集成时,可能会遇到以下错误(我的windows环境一直遇到):

[openclaw] Failed to start CLI: Error: spawn npm ENOENT 

解决方法:我手动安装飞书扩展解决

如果遇到上述错误,可以按照以下步骤手动安装:

  1. 进入 OpenClaw 配置目录
cd "C:\Users\你的用户名\.openclaw" 
  1. 安装飞书扩展包
npm install @m1heng-clawd/feishu 
  1. 创建扩展目录并复制文件
# 创建文件夹 mkdir extensions mkdir extensions\feishu # 复制文件到扩展目录 xcopy /E /Y "node_modules\@m1heng-clawd\feishu\*" "extensions\feishu\" 
  1. 安装依赖
cd extensions\feishu npm install --prod 

完成以上步骤后,重新启动 OpenClaw 服务即可。

二次授权

在飞书中第一次发送消息时,OpenClaw 会要求进行二次授权。这是正常的安全机制,只需要:

  1. 点击授权链接
  2. 按照提示完成授权操作
  3. 授权完成后即可正常使用

二次授权

二次授权

🎉 使用效果

配置完成后,你就可以通过飞书操作本地的 OpenClaw 了!

主要功能包括:

  • 📁 查看本地文件:直接在飞书中查看电脑上的文件
  • ✏️ 生成文件:让 AI 帮你创建和编辑文件
  • 💬 智能对话:随时随地向 AI 提问
  • 🔧 自动化操作:执行各种本地操作任务

查看文件

查看文件

生成文件

生成文件

💡 使用技巧

  1. 多模型支持:可以在配置文件中添加多个模型提供商,根据需要切换使用
  2. 安全提醒:API Key 是敏感信息,不要分享给他人
  3. 性能优化:如果本地资源有限,可以调整模型的上下文窗口大小
  4. 定期更新:保持 OpenClaw 和扩展的最新版本,获得更好的体验

📚 参考资源

  • 🌐 OpenClaw 官方 GitHub
  • 📖 飞书集成教程

🎯 总结

OpenClaw 和飞书,钉钉等移动软件打通,后续考虑将其和Cursor,Claude Code 打通,真正实现让AI全天打工,自己在远处进行任务下达。进入人-Agent交互新阶段

我是AI时代原住民,如果看到这里,欢迎点个推荐AI时代,你最大的能力变迁:从“我不行”到“我能行”!

AI重构软件研发全流程走向落地!亚马逊发布「AI驱动开发」全新方法论,完整解读十大核心原则

AI开发新范式——规范驱动开发(SDD)【第三篇】:通过OpenSpec实现增量开发

一图介绍清楚基于Spec Kit 框架的SDD(规范驱动开发)的详细过程【SDD第二讲]

五分钟带你理解AI时代的软件研发新范式——SDD(规格驱动开发) 【SDD第一讲】

重温氛围编程:是AI开发的明日新星还是皇帝的新装

华为《智能世界2035》揭示软件未来:人机协同编程重塑软件开发格局

2:AI重构软件组织:

AI组织-未来已来:10年以后的组织是什么样子?

AI组织是什么样子?来自微软的最新分析 – The Year of the Frontier Firm:

3:软件工程本质思考:

AI时代,重新温习软件工程经典巨作,思考软件工程的本质

研发提效的本质:不是让程序员拼命踩油门,而是为价值修一条高速公路

AI时代重温经典:《管理大型软件系统的开发》

AI时代重温经典,梳理软件工程的本质:高效构建软件的工程智慧

4: 模型本质的认识:

OpenAI深度揭秘大语言模型的幻觉本质

5: 软件智能测试:

AI在软件测试中的理想与现实:一场尚未到来的革命

6: AI实战

SDD开发实战:3小时从零构建可私有部署的AI助手

AI协同开发范式RIPER-5实战:从零构建图书馆管理系统

SDD(Spec驱动开发)实战新范式:SDDAgent驱动SDD端到端开发流

7: 行业技术

持续进化,从“上下文工程”到“Agent工程”,LangChain给出Agent开发的核心范式

Read more

【源力觉醒 创作者计划】开源、易用、强中文:文心一言4.5或是 普通人/非AI程序员 的第一款中文AI?

【源力觉醒 创作者计划】开源、易用、强中文:文心一言4.5或是 普通人/非AI程序员 的第一款中文AI?

前言 * 你有没有发现,AI 正在悄悄渗透进我们的生活:写文案、画插图、做PPT、答作业,它几乎无所不能😍 !但很多人可能会问: AI,我能用吗?用得起吗?适合我吗?特别是中文用户,面对清一色英文界面、动辄上百元的 API 费用、还要“翻墙”的闭源大模型,常常望而却步😩。 * 好消息来了,文心一言4.5 正式开源,带着「能跑、好用、懂中文」的标签亮相😎。这不仅是一款中文大模型,更像是为中文用户量身定做的一把 AI 钥匙,让你在本地就能打开 AI 世界的大门!在这个“不会用 AI 就像不会用手机”的时代,早点上手,早点受益。 * 一起来轻松玩转文心大模型吧👉一文心大模型免费下载地址: https://ai.

Stable Diffusion XL 1.0部署实操:灵感画廊在阿里云PAI-EAS服务的模型封装

Stable Diffusion XL 1.0部署实操:灵感画廊在阿里云PAI-EAS服务的模型封装 1. 引言:从代码到艺术沙龙的旅程 想象一下,你有一个强大的AI绘画模型——Stable Diffusion XL 1.0,它能够根据你的文字描述生成令人惊叹的高清图像。但每次使用,你都需要面对冰冷的命令行、复杂的参数和工业化的界面。这感觉不像是在创作,更像是在操作一台机器。 今天,我们要做的就是把这种体验彻底改变。我们将把一个功能强大的技术模型,封装成一个名为“灵感画廊”的沉浸式艺术创作终端。这不是简单的界面美化,而是一次从“工具”到“空间”的转变。 灵感画廊的核心目标很明确:为创作者提供一个静谧的、专注于灵感的“捕捉空间”。它基于Stable Diffusion XL 1.0,但完全摒弃了繁琐的操作逻辑。在这里,没有“提示词”,只有“梦境描述”;没有“

3分钟快速上手:llama-cpp-python完整安装与配置指南

3分钟快速上手:llama-cpp-python完整安装与配置指南 【免费下载链接】llama-cpp-pythonPython bindings for llama.cpp 项目地址: https://gitcode.com/gh_mirrors/ll/llama-cpp-python 想要在本地轻松运行大型语言模型却担心复杂的安装过程?llama-cpp-python作为llama.cpp的Python绑定库,为您提供了简单易用的AI开发体验。本文将带您从零开始,快速掌握这个强大工具的安装配置方法。 基础安装:一键搞定 llama-cpp-python的安装过程极其简单,只需运行以下命令: pip install llama-cpp-python 这个命令会自动从源码构建llama.cpp,并将其与Python包一起安装。如果遇到构建问题,可以添加--verbose参数查看详细构建日志。 硬件加速配置方案 为了获得最佳性能表现,您可以根据自己的硬件配置选择合适的加速后端。 CUDA加速配置(NVIDIA显卡用户) CMAKE_ARGS="-DGGML_CU

技术速递|GitHub Copilot SDK 与云原生的完美融合

技术速递|GitHub Copilot SDK 与云原生的完美融合

作者:卢建晖 - 微软高级云技术布道师 排版:Alan Wang 引言 在当今快速演进的 AI 技术格局中,我们已经见证了从简单聊天机器人到复杂智能体系统的转变。作为一名开发者和技术布道者,我观察到一个正在形成的趋势——重点不在于让 AI 无所不能,而在于让每一个 AI Agent 在特定领域做到极致、做到专业。 今天,我想分享一套令人兴奋的技术组合:GitHub Copilot SDK(将生产级智能体引擎嵌入任意应用的开发工具包) + Agent-to-Agent(A2A)Protocol(实现智能体标准化协作的通信规范) + 云原生部署(支撑生产系统的基础设施)。这三者结合在一起,使我们能够构建真正具备协作能力的多智能体系统。 从 AI 助手到智能体引擎:重新定义能力边界 传统的 AI 助手往往追求“全能”——试图回答你抛给它的任何问题。但在真实的生产环境中,这种方式会遇到严重挑战: * 质量不一致:一个模型同时写代码、做数据分析、