win11本地部署openclaw实操第2集-让小龙虾具有telegram机器人能力和搜索网站能力

win11本地部署openclaw实操第2集-让小龙虾具有telegram机器人能力和搜索网站能力

1 按照第一集的部署完成后,我们就开始考虑给小龙虾增加telegram机器人和搜索网站能力,实现效果如下:

在这里插入图片描述


在这里插入图片描述

2 telegram机器人能力部署

C:\Users\Administrator.openclaw的配置文件openclaw.json

在这里插入图片描述


在这里插入图片描述

增加一段内容

"channels":{"telegram":{"enabled": true, "dmPolicy":"pairing", "botToken":"你的telegram机器人的token", "groupPolicy":"allowlist", "streamMode":"partial", "network":{"autoSelectFamily":true}, "proxy":"http://你的代理IP:你的代理端口", "actions":{"reactions": true, "sendMessage": true, "deleteMessage": true, "sticker":true}}}, 

五、对接 Telegarm 电报机器人

打开你的 Telegram,搜索 @BotFather,发送 /newbot,来创建一个新的机器人,按提示设置:

在这里插入图片描述

给 Bot 起个名字,比如我设置为 人工智能我来了

在这里插入图片描述

设置用户名(必须以 bot 结尾,比如Renggongai0219Bot )

最后会给你一串 Token:你的token

输入 token 进行对接,并进入到刚才创建的机器人里,第一次打开会显示还未正式对接,但是会在里面提供配对码,比如我的是 Pairing code: 你的token

XX

现在只需重新打开一个新的 Powershell 窗口,然后在里面输入配对命令即可

openclaw pairing approve telegram 这里填写你的配对码 
在这里插入图片描述

当你看到这个界面的话说明已经和Telegram配对成功了!

版本升级到3.12后配置有点不一样了

1.打开 Telegram → 搜索 @userinfobot → 发送 /start → 机器人会直接回复你的数字 ID(格式:Id: 1987654321)。

在这里插入图片描述

2.1 openclaw配置

openclaw onboard
◇ Telegram allowFrom (numeric sender id; @username resolves to id)
│ XXXXXX(输入上图ID的数字)

3 搜索网站能力部署

C:\Users\Administrator.openclaw的配置文件openclaw.json

在这里插入图片描述


在这里插入图片描述

增加一段内容

"tools":{"web":{"search":{}, "fetch":{"maxChars":20000, "timeoutSeconds":30, "userAgent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36"}}}, 

4 openclaw.json配置文件全部内容

{"meta":{"lastTouchedVersion":"2026.2.19-2", "lastTouchedAt":"2026-02-21T06:04:19.113Z"}, "wizard":{"lastRunAt":"2026-02-21T06:04:19.057Z", "lastRunVersion":"2026.2.19-2", "lastRunCommand":"onboard", "lastRunMode":"local"}, "logging":{"level":"info"}, "models":{"providers":{"ollama":{"baseUrl":"http://127.0.0.1:11434/v1", "apiKey":"ollama-local", "api":"openai-completions", "models":[{"id":"gpt-oss:20b", "name":"gpt-oss:20b", "reasoning": false, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":131072, "maxTokens":16384}]}}}, "agents":{"defaults":{"model":{"primary":"ollama/gpt-oss:20b"}, "models":{"ollama/gpt-oss:20b":{}}, "workspace":"C:\\Users\\Administrator\\.openclaw\\workspace", "compaction":{"mode":"safeguard"}, "maxConcurrent":4, "subagents":{"maxConcurrent":8}}}, "tools":{"web":{"search":{}, "fetch":{"maxChars":20000, "timeoutSeconds":30, "userAgent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36"}}}, "messages":{"ackReactionScope":"group-mentions"}, "commands":{"native":"auto", "nativeSkills":"auto", "restart":true}, "hooks":{"internal":{"enabled": true, "entries":{"boot-md":{"enabled":true}, "session-memory":{"enabled":true}}}}, "channels":{"telegram":{"enabled": true, "dmPolicy":"pairing", "botToken":"用你自己的代替", "groupPolicy":"allowlist", "streamMode":"partial", "network":{"autoSelectFamily":true}, "proxy":"http://127.0.0.1:7897", "actions":{"reactions": true, "sendMessage": true, "deleteMessage": true, "sticker":true}}}, "gateway":{"port":18789, "mode":"local", "bind":"loopback", "auth":{"mode":"token", "token":"用你自己的代替"}, "tailscale":{"mode":"off", "resetOnExit":false}, "remote":{"url":"ws://127.0.0.1:18789", "token":"你设置的密码代替"}, "nodes":{"denyCommands":["camera.snap", "camera.clip", "screen.record", "calendar.add", "contacts.add", "reminders.add"]}}, "skills":{"install":{"nodeManager":"npm"}}, "plugins":{"entries":{"telegram":{"enabled":true}}}}

Read more

GitHub热门项目推荐:Stable Diffusion 3.5 FP8文生图模型实战解析

GitHub热门项目推荐:Stable Diffusion 3.5 FP8文生图模型实战解析 在AIGC(生成式人工智能)浪潮席卷全球的今天,图像生成技术已从实验室走向千行百业。无论是设计师快速出稿、游戏公司批量制作素材,还是社交媒体上的AI艺术创作,Stable Diffusion 都已成为开源文生图领域的“标配”。然而,随着模型能力不断增强,其对硬件资源的“胃口”也越来越大——动辄16GB以上的显存需求,让许多开发者和中小企业望而却步。 正是在这种背景下,Stability AI 推出的 Stable Diffusion 3.5 FP8 版本,像一场及时雨般降临GitHub社区。它不是简单的性能微调,而是一次面向生产落地的深度优化:通过引入前沿的 FP8 低精度量化技术,在几乎不牺牲画质的前提下,将显存占用降低近40%,推理速度提升超过30%。这一版本迅速成为开发者部署私有化AI绘画服务的新宠,相关镜像在Hugging Face和GitHub上持续走红。 那么,FP8究竟是什么?它是如何做到“瘦身不减质”

DeepSeek-R1-Distill-Llama-8B效果实测:CodeForces评分1205分背后——算法题时间复杂度分析能力验证

DeepSeek-R1-Distill-Llama-8B效果实测:CodeForces评分1205分背后——算法题时间复杂度分析能力验证 1. 模型介绍与测试背景 DeepSeek-R1-Distill-Llama-8B是DeepSeek团队推出的推理模型系列中的一员,这个8B参数的模型是从更大的DeepSeek-R1模型蒸馏而来。在众多基准测试中,该模型展现出了令人印象深刻的推理能力,特别是在CodeForces编程竞赛平台上获得了1205分的评分。 这个评分意味着什么?在编程竞赛中,1205分通常对应着能够稳定解决Div.2的A、B题和部分C题的水平,这要求模型不仅要能理解问题描述,还要具备算法思维和时间复杂度分析能力。对于一个人工智能模型来说,这是相当不错的成绩。 2. 时间复杂度分析能力测试 2.1 测试方法与标准 为了验证DeepSeek-R1-Distill-Llama-8B的时间复杂度分析能力,我们设计了一系列测试题目,涵盖不同难度级别和算法类型。测试标准包括: * 问题理解准确性:模型是否能正确理解题目要求 * 算法选择合理性:选择的算法是否适合问

llama.cpp重大更新:自带Web UI,性能超越Ollama,本地大模型部署新选择!

llama.cpp重大更新:自带Web UI,性能超越Ollama,本地大模型部署新选择!

Ollama 背后执行推理的核心技术其实是由 llama.cpp 承担的,GGUF 模型格式也是由 llama.cpp 的作者所开发。 现在 llama.cpp 迎来重大更新,它也有了自己的 Web UI,我测试了安装部署和自行打包,很多地方确实比 Ollama 还有方便好用。 官方介绍,优势如下: * 完全免费、开源且由社区驱动 * 在所有硬件上表现出色 * 高级上下文和前缀缓存 * 并行和远程用户支持 * 极其轻量级且内存高效 * 充满活力且富有创造力的社区 * 100% 隐私 使用之前需要先安装 llama.cpp server 我还是喜欢命令行直接安装 ## Winget (Windows)winget install llama.cpp## Homebrew (Mac and Linux)brew install llama.

全网最靠谱有效!!!解决新机型 Copilot 键替代右 Ctrl 键问题

全网最靠谱有效!!!解决新机型 Copilot 键替代右 Ctrl 键问题

引路者👇: 前言 一、先搞懂:Copilot 键原本是干嘛的? 二、核心解决方案:用微软官方工具 PowerToys 映射 步骤 1:下载安装 PowerToys 步骤 2:开启 “键盘管理器” 功能 步骤 3:添加 “快捷键映射”(关键步骤) 步骤 4:测试功能是否生效 三、注意事项:确保映射长期生效 四、常见问题排查(避坑指南) 五、总结 前言         作为一名长期依赖右 Ctrl 键进行操作的程序员 / 办公用户,今年换了新的拯救者笔记本后,发现键盘上原本的右 Ctrl 键被一个陌生的 “Copilot 键” 取代了。日常用 “Ctrl+