在ESP32-S3部署mimiclaw,基于deepseek并用飞书机器人开展对话-feishu

在ESP32-S3部署mimiclaw,基于deepseek并用飞书机器人开展对话-feishu

最近mimiclaw火爆,其开发团队也在密集更新,我看3天前已经可以用“飞书机器人”对话交互了。

目前网络上能查到的部署资料相对滞后,现在将飞书机器人的部署整理如下:

1. 前提

已经安装好ESP-IDF,并支持vscode编译esp32固件。

2. api-key准备

  • 注册deepseek,
  • 创建APIkey,
  • 并充值,新注册的用户余额为零,无法使用

3. 飞书机器人

我是在飞书个人版中,创建的机器人。

  1. 访问飞书开放平台,单击创建企业自建应用,填写应用名称和描述,选择应用图标,单击创建
  2. 左侧导航栏单击凭证与基础信息 页面,复制App ID(格式如 cli_xxx)和App Secret
  3. 配置事件订阅。
    1. 在飞书开放平台左侧导航栏单击事件与回调,在事件配置页签中单击订阅方式,选择使用 长连接 接收事件,单击保存
    2. 在事件配置页面,单击添加事件,搜索事件im.message.receive_v1(接收消息),单击确认添加

左侧导航栏中单击添加应用能力, 选择按能力添加页签,找到机器人卡片,单击配置

4. 启用网页搜索 api key

官方推荐使用Tavily API key,其官网: Tavily API 平台  https://app.tavily.com/home,

注册成功后,主页即有默认的APIkey。

5. 下载固件

github地址:memovai/mimiclaw: MimiClaw: Run OpenClaw on a $5 chip. No OS(Linux). No Node.js. No Mac mini. No Raspberry Pi. No VPS. Hardware agents OS.https://github.com/memovai/mimiclaw

下载固件后直接用vscode打开,打开main目录下的mimi_config.h文件

#ifndef MIMI_SECRET_WIFI_SSID #define MIMI_SECRET_WIFI_SSID "your wifi ssid" #endif #ifndef MIMI_SECRET_WIFI_PASS #define MIMI_SECRET_WIFI_PASS "your wifi password" #endif #ifndef MIMI_SECRET_TG_TOKEN #define MIMI_SECRET_TG_TOKEN "" #endif #ifndef MIMI_SECRET_API_KEY #define MIMI_SECRET_API_KEY "sk-bdb85222222222222222" //deep-seek的api-key #endif #ifndef MIMI_SECRET_MODEL #define MIMI_SECRET_MODEL "deepseek-chat" #endif #ifndef MIMI_SECRET_MODEL_PROVIDER #define MIMI_SECRET_MODEL_PROVIDER "openai" #endif #ifndef MIMI_SECRET_FEISHU_APP_ID #define MIMI_SECRET_FEISHU_APP_ID "cli_a92038b7" //飞书机器人的app-id #endif #ifndef MIMI_SECRET_FEISHU_APP_SECRET #define MIMI_SECRET_FEISHU_APP_SECRET "Md0gW97OP76" //飞书机器人的app-secret #endif #ifndef MIMI_SECRET_SEARCH_KEY #define MIMI_SECRET_SEARCH_KEY "tvly-dev-2jdvwG-am" //启用网页搜索,Tavily API key #endif //定义deep-seek的api请求地址 #define MIMI_OPENAI_API_URL "https://api.deepseek.com/v1/chat/completions" 

6. 烧录固件

先清除配置,再编译,再烧录。

7. 飞书机器人对话

8.参考资料

ESP32-S3 部署 MimicLaw 完整教程:从零到成功调用 DeepSeek-ZEEKLOG博客

mimiclaw GitHub主页说明资料:

mimiclaw/README_CN.md at main · memovai/mimiclaw

mimiclaw/main/channels/feishu/README.md at main · memovai/mimiclaw

Read more

Flutter for OpenHarmony: Flutter 三方库 simple_logger 为鸿蒙系统开发打造最纯粹的日志调试体验(极简主义者的首选)

Flutter for OpenHarmony: Flutter 三方库 simple_logger 为鸿蒙系统开发打造最纯粹的日志调试体验(极简主义者的首选)

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 前言 在进行 OpenHarmony 应用调试时,虽然控制台有原始的 print,但在处理复杂的异步流、网络状态变更或多层级渲染时,简单的打印往往会导致信息洪流,难以寻找重点。如果你不需要像 talker 或 logger 那么繁重的全家桶方案,只想在控制台中看到一点色彩和清晰的层级,那么这个库就是为你准备的。 simple_logger 完美诠释了“大道至简”。它不依赖任何原生 C++ 接口,纯 Dart 实现,能在鸿蒙设备上以极低的资源占用提供带有级别过滤(Level Filtering)和漂亮格式的日志输出。 一、日志过滤层级模型 simple_logger 允许你根据开发阶段动态调整输出强度。 只打印 INFO 及以上 日志级别 (Level) FINE (调试详情) INFO (常规业务)

By Ne0inhk
Flutter 组件 ignorium 的适配 鸿蒙Harmony 实战 - 驾驭代码生成忽略审计、实现鸿蒙端构建产物精准管理与资源泄露防护方案

Flutter 组件 ignorium 的适配 鸿蒙Harmony 实战 - 驾驭代码生成忽略审计、实现鸿蒙端构建产物精准管理与资源泄露防护方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 ignorium 的适配 鸿蒙Harmony 实战 - 驾驭代码生成忽略审计、实现鸿蒙端构建产物精准管理与资源泄露防护方案 前言 在鸿蒙(OpenHarmony)生态的超大规模工程开发中,代码生成(Code Generation)技术(如 build_runner)是提效的利器,但同时也带来了一个令人头疼的并发症:构建产物的急剧膨胀。面对动辄数千个生成的 .g.dart、.fb.dart 以及各种缓存占位文件。如果缺乏一套严密的忽略审计机制,不仅会导致 IDE 索引变慢、IDE 搜索结果被垃圾信息淹没,更严重的是,某些带有敏感信息的生成代码可能会被误提交到仓库中。 我们需要一种“逻辑可控”的构建过滤器。 ignorium 是一套专为代码生成与静态分析设计的忽略路径审计引擎。它允许你通过定义严密的模式规则。精确控制哪些生成文件应该被存留,哪些应该在构建后立即从宿主机环境抹除。

By Ne0inhk
鸿蒙金融理财全栈项目——生态合作、用户运营、数据变现优化

鸿蒙金融理财全栈项目——生态合作、用户运营、数据变现优化

《鸿蒙APP开发从入门到精通》第24篇:鸿蒙金融理财全栈项目——生态合作、用户运营、数据变现优化 🚀🤝📈 内容承接与核心价值 这是《鸿蒙APP开发从入门到精通》的第24篇——生态合作、用户运营、数据变现优化篇,100%承接第23篇的性能优化、安全加固优化、合规审计优化架构,并基于金融场景的生态合作、用户运营、数据变现优化要求,设计并实现鸿蒙金融理财全栈项目的生态合作、用户运营、数据变现优化功能。 学习目标: * 掌握鸿蒙金融理财项目的生态合作设计与实现; * 实现生态合作协议、生态合作接口、生态合作数据; * 理解用户运营优化在金融场景的核心设计与实现; * 实现用户分群优化、用户画像优化、用户留存优化; * 掌握数据变现优化在金融场景的设计与实现; * 实现广告变现优化、付费变现优化、数据产品变现优化; * 优化金融理财项目的用户体验(生态合作、用户运营、数据变现优化)。 学习重点: * 鸿蒙金融理财项目的生态合作设计原则; * 用户运营优化在金融场景的应用; * 数据变现优化在金融场景的设计要点。 一、 生态合作基础 🎯 1.1 生态

By Ne0inhk

node-llama-cpp安装与配置:Windows、Linux和Mac全平台教程

node-llama-cpp安装与配置:Windows、Linux和Mac全平台教程 【免费下载链接】node-llama-cppRun AI models locally on your machine with node.js bindings for llama.cpp. Force a JSON schema on the model output on the generation level 项目地址: https://gitcode.com/gh_mirrors/no/node-llama-cpp node-llama-cpp是一个基于llama.cpp的Node.js绑定库,让你能够在本地机器上运行AI模型,并在生成级别强制模型输出符合JSON模式。本文将为你提供Windows、Linux和Mac全平台的安装与配置教程,帮助你快速上手这款强大的AI工具。 一、准备工作 在开始安装node-llama-cpp之前,请确保你的系统满足以下要求:

By Ne0inhk