win11本地部署openclaw实操第2集-让小龙虾具有telegram机器人能力和搜索网站能力

win11本地部署openclaw实操第2集-让小龙虾具有telegram机器人能力和搜索网站能力

1 按照第一集的部署完成后,我们就开始考虑给小龙虾增加telegram机器人和搜索网站能力,实现效果如下:

在这里插入图片描述


在这里插入图片描述

2 telegram机器人能力部署

C:\Users\Administrator.openclaw的配置文件openclaw.json

在这里插入图片描述


在这里插入图片描述

增加一段内容

"channels":{"telegram":{"enabled": true, "dmPolicy":"pairing", "botToken":"你的telegram机器人的token", "groupPolicy":"allowlist", "streamMode":"partial", "network":{"autoSelectFamily":true}, "proxy":"http://你的代理IP:你的代理端口", "actions":{"reactions": true, "sendMessage": true, "deleteMessage": true, "sticker":true}}}, 

五、对接 Telegarm 电报机器人

打开你的 Telegram,搜索 @BotFather,发送 /newbot,来创建一个新的机器人,按提示设置:

在这里插入图片描述

给 Bot 起个名字,比如我设置为 人工智能我来了

在这里插入图片描述

设置用户名(必须以 bot 结尾,比如Renggongai0219Bot )

最后会给你一串 Token:你的token

输入 token 进行对接,并进入到刚才创建的机器人里,第一次打开会显示还未正式对接,但是会在里面提供配对码,比如我的是 Pairing code: 你的token

XX

现在只需重新打开一个新的 Powershell 窗口,然后在里面输入配对命令即可

openclaw pairing approve telegram 这里填写你的配对码 
在这里插入图片描述

当你看到这个界面的话说明已经和Telegram配对成功了!

版本升级到3.12后配置有点不一样了

1.打开 Telegram → 搜索 @userinfobot → 发送 /start → 机器人会直接回复你的数字 ID(格式:Id: 1987654321)。

在这里插入图片描述

2.1 openclaw配置

openclaw onboard
◇ Telegram allowFrom (numeric sender id; @username resolves to id)
│ XXXXXX(输入上图ID的数字)

3 搜索网站能力部署

C:\Users\Administrator.openclaw的配置文件openclaw.json

在这里插入图片描述


在这里插入图片描述

增加一段内容

"tools":{"web":{"search":{}, "fetch":{"maxChars":20000, "timeoutSeconds":30, "userAgent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36"}}}, 

4 openclaw.json配置文件全部内容

{"meta":{"lastTouchedVersion":"2026.2.19-2", "lastTouchedAt":"2026-02-21T06:04:19.113Z"}, "wizard":{"lastRunAt":"2026-02-21T06:04:19.057Z", "lastRunVersion":"2026.2.19-2", "lastRunCommand":"onboard", "lastRunMode":"local"}, "logging":{"level":"info"}, "models":{"providers":{"ollama":{"baseUrl":"http://127.0.0.1:11434/v1", "apiKey":"ollama-local", "api":"openai-completions", "models":[{"id":"gpt-oss:20b", "name":"gpt-oss:20b", "reasoning": false, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":131072, "maxTokens":16384}]}}}, "agents":{"defaults":{"model":{"primary":"ollama/gpt-oss:20b"}, "models":{"ollama/gpt-oss:20b":{}}, "workspace":"C:\\Users\\Administrator\\.openclaw\\workspace", "compaction":{"mode":"safeguard"}, "maxConcurrent":4, "subagents":{"maxConcurrent":8}}}, "tools":{"web":{"search":{}, "fetch":{"maxChars":20000, "timeoutSeconds":30, "userAgent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36"}}}, "messages":{"ackReactionScope":"group-mentions"}, "commands":{"native":"auto", "nativeSkills":"auto", "restart":true}, "hooks":{"internal":{"enabled": true, "entries":{"boot-md":{"enabled":true}, "session-memory":{"enabled":true}}}}, "channels":{"telegram":{"enabled": true, "dmPolicy":"pairing", "botToken":"用你自己的代替", "groupPolicy":"allowlist", "streamMode":"partial", "network":{"autoSelectFamily":true}, "proxy":"http://127.0.0.1:7897", "actions":{"reactions": true, "sendMessage": true, "deleteMessage": true, "sticker":true}}}, "gateway":{"port":18789, "mode":"local", "bind":"loopback", "auth":{"mode":"token", "token":"用你自己的代替"}, "tailscale":{"mode":"off", "resetOnExit":false}, "remote":{"url":"ws://127.0.0.1:18789", "token":"你设置的密码代替"}, "nodes":{"denyCommands":["camera.snap", "camera.clip", "screen.record", "calendar.add", "contacts.add", "reminders.add"]}}, "skills":{"install":{"nodeManager":"npm"}}, "plugins":{"entries":{"telegram":{"enabled":true}}}}

Read more

算力调度算法:基于AI的智能算力分配方法

算力调度算法:基于AI的智能算力分配方法

算力调度算法:基于AI的智能算力分配方法 📚 本章学习目标:深入理解基于AI的智能算力分配方法的核心概念与实践方法,掌握关键技术要点,了解实际应用场景与最佳实践。本文属于《云原生、云边端一体化与算力基建:AI时代基础设施革命教程》云原生技术进阶篇(第二阶段)。 在上一章,我们学习了"边缘节点节能技术:算力与功耗的平衡策略"。本章,我们将深入探讨基于AI的智能算力分配方法,这是云原生与AI基础设施学习中非常重要的一环。 一、核心概念与背景 1.1 什么是基于AI的智能算力分配方法 💡 基本定义: 基于AI的智能算力分配方法是云原生与AI基础设施领域的核心知识点之一。掌握这项技能对于提升云原生架构设计能力和AI应用落地效果至关重要。 # 云原生基础命令示例# Docker容器操作docker run -d--name myapp nginx:latest dockerpsdocker logs myapp # Kubernetes基础操作 kubectl get pods -n default kubectl describe pod myapp-pod kubectl

Phi-3-mini-4k-instruct-gguf镜像免配置:预编译llama-cpp-python wheel加速启动

Phi-3-mini-4k-instruct-gguf镜像免配置:预编译llama-cpp-python wheel加速启动 1. 模型简介 Phi-3-mini-4k-instruct-gguf是微软Phi-3系列中的轻量级文本生成模型GGUF版本。这个经过优化的镜像版本特别适合以下中文场景: * 智能问答系统 * 文本改写与润色 * 内容摘要生成 * 简短创意写作 当前镜像已经完成本地部署优化,用户只需打开网页即可直接使用,无需任何额外配置。 2. 镜像核心优势 2.1 开箱即用的体验 * 内置预编译的llama-cpp-python wheel包,省去编译等待时间 * 已集成q4量化版本的GGUF模型文件 * 完整的CUDA加速支持,推理速度提升明显 2.2 技术架构特点 * 基于llama.cpp的高效推理引擎 * Python轻量级Web接口封装 * 独立的虚拟环境隔离系统依赖 * 内置健康检查接口方便运维监控 3. 快速入门指南 3.1 访问方式 直接在浏览器打开以下地址: https://gpu-3sbnmfumnj-

Llama-3.2-3B效果集:Ollama运行下3B模型在中文法律条文理解与类案推荐任务表现

Llama-3.2-3B效果集:Ollama运行下3B模型在中文法律条文理解与类案推荐任务表现 1. 为什么关注Llama-3.2-3B在法律场景的表现 你有没有试过让一个3B大小的模型读懂《民法典》第584条?或者让它从上百个判例中挑出和当前案件最相似的三个?很多人觉得小模型干不了法律这种专业活——毕竟法律文本密、逻辑严、术语多,动不动就是“当事人适格”“要件事实”“证明责任分配”这类词。但Llama-3.2-3B在Ollama本地部署后,真正在中文法律理解任务上交出了一份让人意外的答卷。 这不是理论推演,而是实测结果:它能在不联网、不调用外部API、仅靠本地3B参数量的前提下,准确提取法律条文的核心要件,识别争议焦点,并基于语义相似性给出类案推荐。更关键的是,响应快、资源省、部署简——一台16GB内存的笔记本就能跑起来。本文不讲架构图、不列训练细节,只聚焦一个问题:它在真实法律任务中,到底能做什么、做得怎么样、怎么用才不踩坑。 我们测试了三类典型任务:法律条文释义(比如解释“情势变更原则”的适用条件)、法条关联推理(如“合同解除后,

verl vs RLHF:大模型对齐训练部署教程与性能对比

verl vs RLHF:大模型对齐训练部署教程与性能对比 1. 引言:为什么需要更好的对齐训练框架? 如果你尝试过用传统的RLHF(基于人类反馈的强化学习)来微调一个大语言模型,可能会遇到几个头疼的问题:训练流程复杂、代码难以扩展、资源消耗巨大,而且不同框架之间集成起来特别麻烦。 这就是verl诞生的背景。verl是一个由字节跳动火山引擎团队开源的强化学习训练框架,专门为解决大模型后训练(特别是对齐训练)的工程难题而设计。它不仅仅是另一个RL工具包,更是HybridFlow这篇论文思想的工程实现,目标是把复杂的大模型强化学习训练变得简单、高效且能直接用于生产环境。 简单来说,verl想做的事情是:让你用更少的代码、更清晰的逻辑,在更短的时间内,训练出更好、更安全的大模型。今天这篇文章,我就带你从零开始上手verl,并把它和经典的RLHF方法做个实实在在的对比,看看它到底强在哪里。 2. verl 到底是什么?核心优势一览 在动手之前,我们得先搞清楚verl到底提供了什么。你可以把它理解为一个专门为大模型强化学习训练打造的“高速公路系统”。 2.1 灵活易用的设计哲学