AI agent:介绍 PicoClaw 安装,使用说明

PicoClaw 是一个超轻量级的个人 AI 助手,可以用在从嵌入式开发板到普通电脑的各类设备上。它最吸引人的特点就是极低的资源占用飞快的启动速度。下面我来为你详细介绍它的安装和使用方法。

📖 PicoClaw 简介

PicoClaw 由矽速科技(Sipeed)开发,使用 Go 语言编写。它的核心优势在于,通过将计算密集的大模型推理任务交给云端 API,本地只负责轻量的协调工作,从而实现了惊人的轻量化。

特性OpenClawNanoBotPicoClaw
编程语言TypeScriptPythonGo
内存占用>1GB>100MB< 10MB
启动时间 (0.8GHz核心)>500秒>30秒<1秒
硬件成本参考Mac Mini (约$599)多数Linux开发板 (~$50)任意Linux板 (最低$10)

📦 安装指南

你可以根据自己的需求和环境,选择以下任意一种方式安装。

  • 💾 方式一:预编译二进制(最简单)
    直接从项目的 Releases 页面 下载对应你操作系统和架构(如 linux-arm64, windows-amd64)的文件,重命名为 picoclaw(或 picoclaw.exe),并放到系统 PATH 路径下即可。

🐳 方式三:使用 Docker(环境隔离,快速体验)
这是最干净、依赖最少的方法,非常适合快速上手。

# 1. 克隆仓库git clone https://github.com/sipeed/picoclaw.git cd picoclaw # 2. 复制并编辑配置文件(填入你的API Key)cp config/config.example.json config/config.json # 编辑 config.json 文件,填入你的 LLM API Key 等信息vim config/config.json # 3. 使用 Docker Compose 启动网关服务docker compose --profile gateway up -d

🔧 方式二:从源码编译(适合开发者)
如果你想要体验最新特性,或者你的设备架构特殊,可以自行编译:

git clone https://github.com/sipeed/picoclaw.git cd picoclaw make deps make build # 编译makeinstall# 安装到系统

⚙️ 配置 PicoClaw

安装完成后,需要进行初始化和配置。

    • 获取 API Key:可以从 智谱 AIOpenRouter 等平台获取。
    • (可选)配置网络搜索:如果想让它能联网查资料,可以获取一个免费的 Brave Search API Key 并填入配置。

配置文件:编辑 ~/.picoclaw/config.json 文件,这是核心步骤。你需要至少配置一个 LLM 提供商(如智谱、OpenRouter)的 API Key。一个最小化的配置示例如下(以智谱 AI 为例):

{"agents":{"defaults":{"model":"glm-5",// 或其他模型名"max_tokens":8192}},"providers":{"zhipu":{"api_key":"你的智谱API Key","api_base":"https://open.bigmodel.cn/api/paas/v4"}}}

初始化:运行以下命令,它会在你的用户目录下创建 ~/.picoclaw/ 文件夹和默认配置文件。

picoclaw onboard 

🚀 使用场景

配置好之后,你就可以用多种方式和你的 AI 助手交互了。

  • 💬 本地命令行对话
  • 🤖 接入聊天平台(网关模式)
    这是 PicoClaw 最实用的功能之一,可以让你通过 Telegram、Discord 等日常 App 与 AI 助手聊天。
  • ⏰ 高级功能:定时任务与个性化
    • 自定义人格:通过修改 ~/.picoclaw/workspace/ 下的 AGENTS.mdSOUL.md 文件,可以用自然语言定义助手的性格、技能和行为准则,无需编写代码。

定时任务(cron):你可以设置让助手定时执行任务,比如每天早上9点提醒你今天的日程。

picoclaw cronadd--message"提醒我今天的重要会议"--cron"0 9 * * 1-5"

启动网关服务:

picoclaw gateway 

如果是 Docker 安装,网关通常已经后台运行了。之后,你就可以在手机上随时随地和你的 AI 助手对话了。

~/.picoclaw/config.json 文件中,找到 channels 部分,填入你创建的 Telegram Bot Token 和你的用户 ID。

{"channels":{"telegram":{"enabled":true,"token":"你的Telegram Bot Token","allowFrom":["你的Telegram用户ID"]}}}

交互式对话:进入连续的聊天模式。

picoclaw agent 

一次性提问:适合快速查询。

picoclaw agent -m"介绍一下皮皮虾的特点"

希望这份指南能帮你顺利上手 PicoClaw。


AI agent : picoclaw 在 Win 10 上如何编译?

我查阅了相关资料,目前还没有找到关于在 Windows 10 上从源码编译 PicoClaw 的官方指南。

不过,PicoClaw 是一个用 Go 语言编写的项目,它会编译成一个单一的可执行文件 。因此,你可以通过以下两种方式在 Windows 10 上获得它:

🛠️ 方法一:从源码自行编译(通用方法)

如果你的目标确实是自行编译,可以尝试标准的 Go 语言编译流程。由于 PicoClaw 的项目结构包含 go.mod 文件,编译过程应该比较直接。

你可以打开命令提示符或 PowerShell,执行以下步骤:

  1. 安装 Go 环境:确保你的 Windows 10 系统已安装 Go(推荐 1.16 及以上版本)。

编译项目:在项目根目录下执行 go build 命令,Go 会自动下载依赖并生成可执行文件。

go build -o picoclaw.exe 

获取源码

git clone https://github.com/picoclaw/picoclaw.git cd picoclaw 

⚡ 方法二:直接下载预编译版本(推荐)

如果你主要是想使用 PicoClaw 而非参与源码开发,更简单的方法是直接下载官方提供的 Windows 预编译版本。根据相关资料,PicoClaw 提供了 Windows 的二进制文件 。

  1. 下载文件:从 PicoClaw 的 GitHub Releases 页面下载 picoclaw-windows-amd64.exe
  2. 放置与重命名:将下载的文件放到一个方便的目录,例如 C:\picoclaw,并将其重命名为 picoclaw.exe
  3. 初始化工作区:在 picoclaw.exe 所在目录打开命令提示符,运行 picoclaw init 命令生成配置文件和工作区 。
  4. 配置 API 密钥:编辑生成的配置文件(默认路径为 C:\Users\你的用户名\.picoclaw\workspace\config.json),填入你的 LLM API 密钥(如 OpenAI、DeepSeek 或本地 Ollama)。
  5. 运行:最后,执行 picoclaw run 即可开始使用 。

💡 建议

如果你在编译过程中遇到任何问题,或者想了解更详细的配置方法(比如如何接入 Telegram 或配置本地 Ollama),可以查阅我找到的这份完整指南 。另外,建议去 PicoClaw 的官方 GitHub 仓库看看,通常 README.mdCONTRIBUTING.md 文件里会包含最权威的编译说明。

你是想参与开发所以需要编译,还是主要为了使用它?如果是后者,直接下载编译好的版本会省事很多。


我的实践经验

先下载 go1.25.x.windows-amd64.msi , 然后安装。
where go
D:\Go\bin\go.exe
where gmake
D:\Strawberry\c\bin\gmake.exe
D:
cd D:\AI\picoclaw-main
D:\AI\picoclaw-main> gmake deps
all modules verified
D:\AI\picoclaw-main> gmake build
Run generate…
Run generate complete
Building picoclaw for MSYS_NT-10.0/x86_64…

github.com/sipeed/picoclaw/pkg/tools
github.com/sipeed/picoclaw/pkg/heartbeat
github.com/sipeed/picoclaw/pkg/agent
github.com/sipeed/picoclaw/cmd/picoclaw
Build complete: build/picoclaw-MSYS_NT-10.0-x86_64

D:\AI\picoclaw-main> cd build
D:\AI\picoclaw-main\build> dir
2026/02/20 00:11 17,773,056 picoclaw
2026/02/20 00:11 17,773,056 picoclaw-MSYS_NT-10.0-x86_64
rename picoclaw picoclaw.exe

D:\AI\picoclaw-main\build> picoclaw onboard
🦞 picoclaw is ready!

Next steps:

  1. Add your API key to C:\Users\your.picoclaw\config.json
    Get one at: https://openrouter.ai/keys
  2. Chat: picoclaw agent -m “Hello!”

Read more

Midjourney Imagine API 申请及使用

Midjourney Imagine API 申请及使用 Midjourney 是一款非常强大的 AI 绘图工具,只要输入关键字,就能在短短一两分钟生成十分精美的图像。Midjourney 以其出色的绘图能力在业界独树一帜,如今,Midjourney 早已在各个行业和领域广泛应用,其影响力愈发显著。 本文档主要介绍 Midjourney API 中 Imagine 操作的使用流程,利用它我们可以轻松通过文本生成所需要的图像。 申请流程 要使用 Midjourney Imagine API,首先可以到 Midjourney Imagine API 页面点击「Acquire」按钮,获取请求所需要的凭证: 如果你尚未登录或注册,会自动跳转到登录页面邀请您来注册和登录,登录注册之后会自动返回当前页面。 在首次申请时会有免费额度赠送,可以免费使用该 API。 基本使用 接下来就可以在界面上填写对应的内容,如图所示: 在第一次使用该接口时,我们至少需要填写两个内容,一个是 authorization,直接在下拉列表里面选择即可。

Stable Diffusion也能跑?PyTorch-CUDA-v2.7支持多种模型架构

Stable Diffusion也能跑?PyTorch-CUDA-v2.7支持多种模型架构 在AI生成内容(AIGC)爆发式增长的今天,越来越多开发者希望在本地或私有云环境中运行像Stable Diffusion这样的大模型。但现实往往令人沮丧:安装PyTorch时CUDA版本不匹配、驱动无法识别GPU、显存爆满、推理卡顿……这些问题让很多人还没开始写代码就放弃了。 有没有一种方式,能让人“一键启动”就进入高效开发状态? 答案是肯定的——PyTorch-CUDA-v2.7 镜像正是为此而生。它不是一个简单的工具包,而是一套经过深度优化、开箱即用的AI运行时环境,专为解决现代深度学习中最常见的部署难题设计。 为什么我们需要这个镜像? 想象一下这个场景:你刚拿到一块RTX 4090显卡,兴致勃勃想试试Stable Diffusion生成艺术画作。结果花了整整两天才配好环境——Python版本不对、cuDNN缺失、NVIDIA容器运行时不兼容……最后发现模型根本加载不了,因为显存管理出错。 这并不是个例。传统手动配置深度学习环境的方式存在太多不确定性: * 不同项目依赖不同

从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南

从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南

文章目录 * 从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南 💻✨ * 一、语法纠错:Copilot 如何成为你的“实时校对员” ✅ * 示例 1:自动修复缩进错误 * 示例 2:括号/引号自动闭合与修复 * 示例 3:类型注解缺失的智能补充 * 实战技巧:结合 Linter 使用 Copilot * 二、代码生成:从单行补全到完整函数实现 🧠⚡ * 示例 4:用注释驱动函数生成 * 示例 5:生成单元测试 * 示例 6:异步 HTTP 请求生成 * 三、调试辅助:Copilot 如何帮你“读懂”错误信息 🐞🔍 * 场景:遇到 `KeyError` 怎么办? * 场景:

Xinference效果展示:Llama3-70B+Qwen2-VL+Whisper-large-v3同平台并发推理实录

Xinference效果展示:Llama3-70B+Qwen2-VL+Whisper-large-v3同平台并发推理实录 1. 为什么这次并发实录值得关注 你有没有试过同时跑三个“重量级”模型——一个700亿参数的大语言模型、一个能看懂图片的多模态专家、还有一个听音识义的语音大将?不是轮流用,而是真正在同一台机器上并肩工作、互不干扰、各自响应。 这次我们用 Xinference v1.17.1 做了一次真实环境下的压力验证:让 Llama3-70B(量化版)、Qwen2-VL(视觉语言模型) 和 Whisper-large-v3(语音识别旗舰) 在单节点上完成并发推理。没有虚拟机隔离,没有容器编排,就靠 Xinference 自带的资源调度和模型隔离能力,全程通过统一 API 调用,零冲突、低延迟、可复现。 这不是概念演示,而是实打实的终端日志截图、实时内存监控、三次独立请求的耗时对比——所有数据都来自一台配备 2×RTX 4090