AI agent:介绍 PicoClaw 安装,使用说明

PicoClaw 是一个超轻量级的个人 AI 助手,可以用在从嵌入式开发板到普通电脑的各类设备上。它最吸引人的特点就是极低的资源占用飞快的启动速度。下面我来为你详细介绍它的安装和使用方法。

📖 PicoClaw 简介

PicoClaw 由矽速科技(Sipeed)开发,使用 Go 语言编写。它的核心优势在于,通过将计算密集的大模型推理任务交给云端 API,本地只负责轻量的协调工作,从而实现了惊人的轻量化。

特性OpenClawNanoBotPicoClaw
编程语言TypeScriptPythonGo
内存占用>1GB>100MB< 10MB
启动时间 (0.8GHz核心)>500秒>30秒<1秒
硬件成本参考Mac Mini (约$599)多数Linux开发板 (~$50)任意Linux板 (最低$10)

📦 安装指南

你可以根据自己的需求和环境,选择以下任意一种方式安装。

  • 💾 方式一:预编译二进制(最简单)
    直接从项目的 Releases 页面 下载对应你操作系统和架构(如 linux-arm64, windows-amd64)的文件,重命名为 picoclaw(或 picoclaw.exe),并放到系统 PATH 路径下即可。

🐳 方式三:使用 Docker(环境隔离,快速体验)
这是最干净、依赖最少的方法,非常适合快速上手。

# 1. 克隆仓库git clone https://github.com/sipeed/picoclaw.git cd picoclaw # 2. 复制并编辑配置文件(填入你的API Key)cp config/config.example.json config/config.json # 编辑 config.json 文件,填入你的 LLM API Key 等信息vim config/config.json # 3. 使用 Docker Compose 启动网关服务docker compose --profile gateway up -d

🔧 方式二:从源码编译(适合开发者)
如果你想要体验最新特性,或者你的设备架构特殊,可以自行编译:

git clone https://github.com/sipeed/picoclaw.git cd picoclaw make deps make build # 编译makeinstall# 安装到系统

⚙️ 配置 PicoClaw

安装完成后,需要进行初始化和配置。

    • 获取 API Key:可以从 智谱 AIOpenRouter 等平台获取。
    • (可选)配置网络搜索:如果想让它能联网查资料,可以获取一个免费的 Brave Search API Key 并填入配置。

配置文件:编辑 ~/.picoclaw/config.json 文件,这是核心步骤。你需要至少配置一个 LLM 提供商(如智谱、OpenRouter)的 API Key。一个最小化的配置示例如下(以智谱 AI 为例):

{"agents":{"defaults":{"model":"glm-5",// 或其他模型名"max_tokens":8192}},"providers":{"zhipu":{"api_key":"你的智谱API Key","api_base":"https://open.bigmodel.cn/api/paas/v4"}}}

初始化:运行以下命令,它会在你的用户目录下创建 ~/.picoclaw/ 文件夹和默认配置文件。

picoclaw onboard 

🚀 使用场景

配置好之后,你就可以用多种方式和你的 AI 助手交互了。

  • 💬 本地命令行对话
  • 🤖 接入聊天平台(网关模式)
    这是 PicoClaw 最实用的功能之一,可以让你通过 Telegram、Discord 等日常 App 与 AI 助手聊天。
  • ⏰ 高级功能:定时任务与个性化
    • 自定义人格:通过修改 ~/.picoclaw/workspace/ 下的 AGENTS.mdSOUL.md 文件,可以用自然语言定义助手的性格、技能和行为准则,无需编写代码。

定时任务(cron):你可以设置让助手定时执行任务,比如每天早上9点提醒你今天的日程。

picoclaw cronadd--message"提醒我今天的重要会议"--cron"0 9 * * 1-5"

启动网关服务:

picoclaw gateway 

如果是 Docker 安装,网关通常已经后台运行了。之后,你就可以在手机上随时随地和你的 AI 助手对话了。

~/.picoclaw/config.json 文件中,找到 channels 部分,填入你创建的 Telegram Bot Token 和你的用户 ID。

{"channels":{"telegram":{"enabled":true,"token":"你的Telegram Bot Token","allowFrom":["你的Telegram用户ID"]}}}

交互式对话:进入连续的聊天模式。

picoclaw agent 

一次性提问:适合快速查询。

picoclaw agent -m"介绍一下皮皮虾的特点"

希望这份指南能帮你顺利上手 PicoClaw。


AI agent : picoclaw 在 Win 10 上如何编译?

我查阅了相关资料,目前还没有找到关于在 Windows 10 上从源码编译 PicoClaw 的官方指南。

不过,PicoClaw 是一个用 Go 语言编写的项目,它会编译成一个单一的可执行文件 。因此,你可以通过以下两种方式在 Windows 10 上获得它:

🛠️ 方法一:从源码自行编译(通用方法)

如果你的目标确实是自行编译,可以尝试标准的 Go 语言编译流程。由于 PicoClaw 的项目结构包含 go.mod 文件,编译过程应该比较直接。

你可以打开命令提示符或 PowerShell,执行以下步骤:

  1. 安装 Go 环境:确保你的 Windows 10 系统已安装 Go(推荐 1.16 及以上版本)。

编译项目:在项目根目录下执行 go build 命令,Go 会自动下载依赖并生成可执行文件。

go build -o picoclaw.exe 

获取源码

git clone https://github.com/picoclaw/picoclaw.git cd picoclaw 

⚡ 方法二:直接下载预编译版本(推荐)

如果你主要是想使用 PicoClaw 而非参与源码开发,更简单的方法是直接下载官方提供的 Windows 预编译版本。根据相关资料,PicoClaw 提供了 Windows 的二进制文件 。

  1. 下载文件:从 PicoClaw 的 GitHub Releases 页面下载 picoclaw-windows-amd64.exe
  2. 放置与重命名:将下载的文件放到一个方便的目录,例如 C:\picoclaw,并将其重命名为 picoclaw.exe
  3. 初始化工作区:在 picoclaw.exe 所在目录打开命令提示符,运行 picoclaw init 命令生成配置文件和工作区 。
  4. 配置 API 密钥:编辑生成的配置文件(默认路径为 C:\Users\你的用户名\.picoclaw\workspace\config.json),填入你的 LLM API 密钥(如 OpenAI、DeepSeek 或本地 Ollama)。
  5. 运行:最后,执行 picoclaw run 即可开始使用 。

💡 建议

如果你在编译过程中遇到任何问题,或者想了解更详细的配置方法(比如如何接入 Telegram 或配置本地 Ollama),可以查阅我找到的这份完整指南 。另外,建议去 PicoClaw 的官方 GitHub 仓库看看,通常 README.mdCONTRIBUTING.md 文件里会包含最权威的编译说明。

你是想参与开发所以需要编译,还是主要为了使用它?如果是后者,直接下载编译好的版本会省事很多。


我的实践经验

先下载 go1.25.x.windows-amd64.msi , 然后安装。
where go
D:\Go\bin\go.exe
where gmake
D:\Strawberry\c\bin\gmake.exe
D:
cd D:\AI\picoclaw-main
D:\AI\picoclaw-main> gmake deps
all modules verified
D:\AI\picoclaw-main> gmake build
Run generate…
Run generate complete
Building picoclaw for MSYS_NT-10.0/x86_64…

github.com/sipeed/picoclaw/pkg/tools
github.com/sipeed/picoclaw/pkg/heartbeat
github.com/sipeed/picoclaw/pkg/agent
github.com/sipeed/picoclaw/cmd/picoclaw
Build complete: build/picoclaw-MSYS_NT-10.0-x86_64

D:\AI\picoclaw-main> cd build
D:\AI\picoclaw-main\build> dir
2026/02/20 00:11 17,773,056 picoclaw
2026/02/20 00:11 17,773,056 picoclaw-MSYS_NT-10.0-x86_64
rename picoclaw picoclaw.exe

D:\AI\picoclaw-main\build> picoclaw onboard
🦞 picoclaw is ready!

Next steps:

  1. Add your API key to C:\Users\your.picoclaw\config.json
    Get one at: https://openrouter.ai/keys
  2. Chat: picoclaw agent -m “Hello!”

Read more

Flutter 三方库 huggingface_client 的鸿蒙化适配指南 - 连接全球最大 AI 开源社区、助力鸿蒙应用构建云端一体的大模型推理能力

Flutter 三方库 huggingface_client 的鸿蒙化适配指南 - 连接全球最大 AI 开源社区、助力鸿蒙应用构建云端一体的大模型推理能力

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 huggingface_client 的鸿蒙化适配指南 - 连接全球最大 AI 开源社区、助力鸿蒙应用构建云端一体的大模型推理能力 前言 在 OpenHarmony 鸿蒙应用全场景智能化的今天,AI 模型的获取与推理能力已成为应用的核心竞争力。如果你希望在鸿蒙应用中集成最前沿的文本生成、图像识别或语音转写功能,而又不想从零开始训练模型,那么 Hugging Face Hub 正是你不可或缺的“AI 军火库”。huggingface_client 作为一个专为 Dart/Flutter 设计的官方级客户端,提供了对 Hugging Face API 的深度封装。本文将指导你如何在鸿蒙端利用此库轻松调取全球顶尖的开源 AI 算力。 一、原原理分析 / 概念介绍 1.1

5分钟掌握whisper.cpp模型部署:从tiny到large-v3-turbo的实战指南

还在为本地语音识别项目选择合适的模型而烦恼吗?当需要在资源受限的环境中部署高效的语音转文字功能时,模型大小、速度和准确率的平衡往往让开发者头疼。本文通过实测对比whisper.cpp的8种主流模型,帮你快速找到最适合业务场景的解决方案。读完本文你将获得: 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp * 不同规模模型的磁盘占用与性能数据 * 实时/离线场景下的模型选择决策指南 * 一行命令完成模型部署的实操教程 模型规格全景图 whisper.cpp作为OpenAI Whisper模型的C/C++移植版,提供了从微型到大型的完整模型系列。这些模型经过优化可在CPU/GPU上高效运行,其核心差异体现在参数量与能力范围上。 官方模型规格速查表 模型名称磁盘占用支持语言典型应用场景tiny.en75 MiB仅英语嵌入式设备、实时语音控制base142 MiB多语言移动端App、语音助手small

终极免费语音转文本方案:OpenAI Whisper完整使用指南

终极免费语音转文本方案:OpenAI Whisper完整使用指南 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 想要将会议录音、学习讲座、播客内容快速转换为文字吗?OpenAI Whisper作为当前最先进的语音识别模型,能够高质量完成语音转文本任务,支持多语言识别,特别适合个人用户和中小团队使用。无需复杂的配置,只需简单几步即可享受专业的语音转录服务。 🎯 为什么选择Whisper语音转文本? 完全开源免费:Whisper模型完全开源,无需任何付费订阅,让每个人都能享受顶尖的语音识别技术。 多场景实用价值: * 📝 会议记录:自动生成完整会议纪要 * 🎓 学习笔记:将讲座内容转为可搜索文字 * 🎙️ 内容创作:为播客、视频生成准确字幕 * 📱 个人助手:语音备忘录自动文字化 🚀 5分钟快速上手 环境准备清单 * Python 3.8+ 环境 * FFmpeg音频处理工具 * 足够存储空间(基础模型约2.