AI agent:介绍 PicoClaw 安装,使用说明

PicoClaw 是一个超轻量级的个人 AI 助手,可以用在从嵌入式开发板到普通电脑的各类设备上。它最吸引人的特点就是极低的资源占用飞快的启动速度。下面我来为你详细介绍它的安装和使用方法。

📖 PicoClaw 简介

PicoClaw 由矽速科技(Sipeed)开发,使用 Go 语言编写。它的核心优势在于,通过将计算密集的大模型推理任务交给云端 API,本地只负责轻量的协调工作,从而实现了惊人的轻量化。

特性OpenClawNanoBotPicoClaw
编程语言TypeScriptPythonGo
内存占用>1GB>100MB< 10MB
启动时间 (0.8GHz核心)>500秒>30秒<1秒
硬件成本参考Mac Mini (约$599)多数Linux开发板 (~$50)任意Linux板 (最低$10)

📦 安装指南

你可以根据自己的需求和环境,选择以下任意一种方式安装。

  • 💾 方式一:预编译二进制(最简单)
    直接从项目的 Releases 页面 下载对应你操作系统和架构(如 linux-arm64, windows-amd64)的文件,重命名为 picoclaw(或 picoclaw.exe),并放到系统 PATH 路径下即可。

🐳 方式三:使用 Docker(环境隔离,快速体验)
这是最干净、依赖最少的方法,非常适合快速上手。

# 1. 克隆仓库git clone https://github.com/sipeed/picoclaw.git cd picoclaw # 2. 复制并编辑配置文件(填入你的API Key)cp config/config.example.json config/config.json # 编辑 config.json 文件,填入你的 LLM API Key 等信息vim config/config.json # 3. 使用 Docker Compose 启动网关服务docker compose --profile gateway up -d

🔧 方式二:从源码编译(适合开发者)
如果你想要体验最新特性,或者你的设备架构特殊,可以自行编译:

git clone https://github.com/sipeed/picoclaw.git cd picoclaw make deps make build # 编译makeinstall# 安装到系统

⚙️ 配置 PicoClaw

安装完成后,需要进行初始化和配置。

    • 获取 API Key:可以从 智谱 AIOpenRouter 等平台获取。
    • (可选)配置网络搜索:如果想让它能联网查资料,可以获取一个免费的 Brave Search API Key 并填入配置。

配置文件:编辑 ~/.picoclaw/config.json 文件,这是核心步骤。你需要至少配置一个 LLM 提供商(如智谱、OpenRouter)的 API Key。一个最小化的配置示例如下(以智谱 AI 为例):

{"agents":{"defaults":{"model":"glm-5",// 或其他模型名"max_tokens":8192}},"providers":{"zhipu":{"api_key":"你的智谱API Key","api_base":"https://open.bigmodel.cn/api/paas/v4"}}}

初始化:运行以下命令,它会在你的用户目录下创建 ~/.picoclaw/ 文件夹和默认配置文件。

picoclaw onboard 

🚀 使用场景

配置好之后,你就可以用多种方式和你的 AI 助手交互了。

  • 💬 本地命令行对话
  • 🤖 接入聊天平台(网关模式)
    这是 PicoClaw 最实用的功能之一,可以让你通过 Telegram、Discord 等日常 App 与 AI 助手聊天。
  • ⏰ 高级功能:定时任务与个性化
    • 自定义人格:通过修改 ~/.picoclaw/workspace/ 下的 AGENTS.mdSOUL.md 文件,可以用自然语言定义助手的性格、技能和行为准则,无需编写代码。

定时任务(cron):你可以设置让助手定时执行任务,比如每天早上9点提醒你今天的日程。

picoclaw cronadd--message"提醒我今天的重要会议"--cron"0 9 * * 1-5"

启动网关服务:

picoclaw gateway 

如果是 Docker 安装,网关通常已经后台运行了。之后,你就可以在手机上随时随地和你的 AI 助手对话了。

~/.picoclaw/config.json 文件中,找到 channels 部分,填入你创建的 Telegram Bot Token 和你的用户 ID。

{"channels":{"telegram":{"enabled":true,"token":"你的Telegram Bot Token","allowFrom":["你的Telegram用户ID"]}}}

交互式对话:进入连续的聊天模式。

picoclaw agent 

一次性提问:适合快速查询。

picoclaw agent -m"介绍一下皮皮虾的特点"

希望这份指南能帮你顺利上手 PicoClaw。


AI agent : picoclaw 在 Win 10 上如何编译?

我查阅了相关资料,目前还没有找到关于在 Windows 10 上从源码编译 PicoClaw 的官方指南。

不过,PicoClaw 是一个用 Go 语言编写的项目,它会编译成一个单一的可执行文件 。因此,你可以通过以下两种方式在 Windows 10 上获得它:

🛠️ 方法一:从源码自行编译(通用方法)

如果你的目标确实是自行编译,可以尝试标准的 Go 语言编译流程。由于 PicoClaw 的项目结构包含 go.mod 文件,编译过程应该比较直接。

你可以打开命令提示符或 PowerShell,执行以下步骤:

  1. 安装 Go 环境:确保你的 Windows 10 系统已安装 Go(推荐 1.16 及以上版本)。

编译项目:在项目根目录下执行 go build 命令,Go 会自动下载依赖并生成可执行文件。

go build -o picoclaw.exe 

获取源码

git clone https://github.com/picoclaw/picoclaw.git cd picoclaw 

⚡ 方法二:直接下载预编译版本(推荐)

如果你主要是想使用 PicoClaw 而非参与源码开发,更简单的方法是直接下载官方提供的 Windows 预编译版本。根据相关资料,PicoClaw 提供了 Windows 的二进制文件 。

  1. 下载文件:从 PicoClaw 的 GitHub Releases 页面下载 picoclaw-windows-amd64.exe
  2. 放置与重命名:将下载的文件放到一个方便的目录,例如 C:\picoclaw,并将其重命名为 picoclaw.exe
  3. 初始化工作区:在 picoclaw.exe 所在目录打开命令提示符,运行 picoclaw init 命令生成配置文件和工作区 。
  4. 配置 API 密钥:编辑生成的配置文件(默认路径为 C:\Users\你的用户名\.picoclaw\workspace\config.json),填入你的 LLM API 密钥(如 OpenAI、DeepSeek 或本地 Ollama)。
  5. 运行:最后,执行 picoclaw run 即可开始使用 。

💡 建议

如果你在编译过程中遇到任何问题,或者想了解更详细的配置方法(比如如何接入 Telegram 或配置本地 Ollama),可以查阅我找到的这份完整指南 。另外,建议去 PicoClaw 的官方 GitHub 仓库看看,通常 README.mdCONTRIBUTING.md 文件里会包含最权威的编译说明。

你是想参与开发所以需要编译,还是主要为了使用它?如果是后者,直接下载编译好的版本会省事很多。


我的实践经验

先下载 go1.25.x.windows-amd64.msi , 然后安装。
where go
D:\Go\bin\go.exe
where gmake
D:\Strawberry\c\bin\gmake.exe
D:
cd D:\AI\picoclaw-main
D:\AI\picoclaw-main> gmake deps
all modules verified
D:\AI\picoclaw-main> gmake build
Run generate…
Run generate complete
Building picoclaw for MSYS_NT-10.0/x86_64…

github.com/sipeed/picoclaw/pkg/tools
github.com/sipeed/picoclaw/pkg/heartbeat
github.com/sipeed/picoclaw/pkg/agent
github.com/sipeed/picoclaw/cmd/picoclaw
Build complete: build/picoclaw-MSYS_NT-10.0-x86_64

D:\AI\picoclaw-main> cd build
D:\AI\picoclaw-main\build> dir
2026/02/20 00:11 17,773,056 picoclaw
2026/02/20 00:11 17,773,056 picoclaw-MSYS_NT-10.0-x86_64
rename picoclaw picoclaw.exe

D:\AI\picoclaw-main\build> picoclaw onboard
🦞 picoclaw is ready!

Next steps:

  1. Add your API key to C:\Users\your.picoclaw\config.json
    Get one at: https://openrouter.ai/keys
  2. Chat: picoclaw agent -m “Hello!”

Read more

Qwen3-VL-WEBUI实战:新闻图片自动标注系统

Qwen3-VL-WEBUI实战:新闻图片自动标注系统 1. 引言 1.1 业务场景描述 在现代新闻媒体生产流程中,图片是信息传递的重要载体。每篇新闻报道往往伴随多张现场照片、图表或截图,而对这些图像进行准确、高效的内容标注(如生成标题、识别主体、提取关键词)是一项耗时且依赖人工的任务。 传统方式下,编辑人员需手动查看每张图片并撰写描述性文字,不仅效率低下,还容易因主观判断导致标注不一致。随着AI技术的发展,尤其是多模态大模型的成熟,构建一个自动化新闻图片标注系统已成为可能。 1.2 痛点分析 当前主流的图像标注方案存在以下问题: * 通用OCR工具仅能提取文本,无法理解图像语义; * 传统CV模型(如ResNet+分类头)泛化能力弱,难以应对复杂场景; * 闭源API服务成本高、响应慢、数据隐私风险大; * 部署门槛高:多数开源模型需要复杂的环境配置和工程调优。 因此,亟需一种开箱即用、高性能、可本地部署的视觉语言模型解决方案。 1.3 方案预告 本文将基于阿里云最新开源的 Qwen3-VL-WEBUI,搭建一套完整的“

springboot+vue基于web的咖啡点单程序设计

springboot+vue基于web的咖啡点单程序设计

目录 * 同行可拿货,招校园代理 ,本人源头供货商 * 功能模块划分 * 核心业务流程 * 技术实现要点 * 数据模型设计 * 前端交互特性 * 安全防护措施 * 扩展性设计 * 项目技术支持 * 源码获取详细视频演示 :文章底部获取博主联系方式!同行可合作 同行可拿货,招校园代理 ,本人源头供货商 功能模块划分 后端(SpringBoot) * 用户认证与授权(JWT/OAuth2) * 商品管理(咖啡品类、配料、价格) * 订单处理(创建/查询/状态更新) * 支付接口集成(微信/支付宝) * 数据统计与分析 前端(Vue) * 响应式用户界面(PC/移动端自适应) * 动态菜单展示与分类筛选 * 购物车实时交互 * 订单状态可视化追踪 * 用户评价系统 核心业务流程 用户侧流程 * 注册/登录 → 浏览菜单

Qwen3-32B开源可部署实践:Clawdbot Web网关+企业微信/钉钉集成指南

Qwen3-32B开源可部署实践:Clawdbot Web网关+企业微信/钉钉集成指南 1. 为什么需要这个组合:从大模型能力到办公场景落地 你有没有遇到过这样的情况:团队刚部署好Qwen3-32B,本地跑得飞快,但业务部门同事却说“用不上”?不是模型不好,而是缺了一座桥——一座把强大推理能力,稳稳接到日常办公入口的桥。 Clawdbot就是这座桥。它不替换你的Qwen3-32B,也不要求你改模型、重训练,而是用极轻量的方式,把Ollama托管的Qwen3-32B,变成企业微信里能直接@提问的AI助手,或是钉钉群中自动响应任务的智能协作者。 关键在于“直连Web网关”这四个字。它意味着:没有中间服务层、没有额外API网关、不走公网转发——Qwen3-32B的响应,从Ollama输出那一刻起,经由Clawdbot内置代理,毫秒级抵达聊天界面。这不是演示Demo,而是已在线上环境稳定运行超47天的真实部署方案。 本文不讲原理推导,不列参数表格,只聚焦三件事: 怎么让Qwen3-32B在Clawdbot里真正“活”起来; 怎么把Web网关8080端口安全、稳定地映射到18789对

语音交互实战:基于WebRTC与AI接口构建实时语音对话系统

语音交互实战:基于WebRTC与AI接口构建实时语音对话系统 随着大模型技术的爆发,人机交互的方式正在经历一场从“指令式”到“对话式”的深刻变革。传统的文本交互虽然成熟,但在移动场景、驾驶辅助或无障碍应用中,语音交互才是刚需。然而,很多开发者在尝试构建语音对话系统时,往往会陷入“能听会说但反应迟钝”的尴尬境地。 传统的语音交互流程通常是:录音 → 上传文件 → 后端识别(STT) → 大模型处理(LLM) → 语音合成(TTS) → 返回播放。这种“一问一答”的串行模式,导致用户说完话后需要等待数秒才能听到回复,这种延迟在实时对话场景下是致命的。 本文将探讨如何利用WebRTC技术与AI接口,构建一个低延迟、全双工的实时语音对话系统,打破交互延迟的壁垒。 核心技术架构:从串行到流式 要解决延迟问题,核心在于将“文件级”处理转变为“流式”处理。我们不再等待用户说完一句话才开始识别,而是边说边识别;不再等大模型生成完整回复才开始合成,而是边生成边合成。 1. WebRTC: