win11本地部署openclaw实操第2集-让小龙虾具有telegram机器人能力和搜索网站能力

win11本地部署openclaw实操第2集-让小龙虾具有telegram机器人能力和搜索网站能力

1 按照第一集的部署完成后,我们就开始考虑给小龙虾增加telegram机器人和搜索网站能力,实现效果如下:

在这里插入图片描述


在这里插入图片描述

2 telegram机器人能力部署

C:\Users\Administrator.openclaw的配置文件openclaw.json

在这里插入图片描述


在这里插入图片描述

增加一段内容

"channels":{"telegram":{"enabled": true, "dmPolicy":"pairing", "botToken":"你的telegram机器人的token", "groupPolicy":"allowlist", "streamMode":"partial", "network":{"autoSelectFamily":true}, "proxy":"http://你的代理IP:你的代理端口", "actions":{"reactions": true, "sendMessage": true, "deleteMessage": true, "sticker":true}}}, 

五、对接 Telegarm 电报机器人

打开你的 Telegram,搜索 @BotFather,发送 /newbot,来创建一个新的机器人,按提示设置:

在这里插入图片描述

给 Bot 起个名字,比如我设置为 人工智能我来了

在这里插入图片描述

设置用户名(必须以 bot 结尾,比如Renggongai0219Bot )

最后会给你一串 Token:你的token

输入 token 进行对接,并进入到刚才创建的机器人里,第一次打开会显示还未正式对接,但是会在里面提供配对码,比如我的是 Pairing code: 你的token

XX

现在只需重新打开一个新的 Powershell 窗口,然后在里面输入配对命令即可

openclaw pairing approve telegram 这里填写你的配对码 
在这里插入图片描述

当你看到这个界面的话说明已经和Telegram配对成功了!

版本升级到3.12后配置有点不一样了

1.打开 Telegram → 搜索 @userinfobot → 发送 /start → 机器人会直接回复你的数字 ID(格式:Id: 1987654321)。

在这里插入图片描述

2.1 openclaw配置

openclaw onboard
◇ Telegram allowFrom (numeric sender id; @username resolves to id)
│ XXXXXX(输入上图ID的数字)

3 搜索网站能力部署

C:\Users\Administrator.openclaw的配置文件openclaw.json

在这里插入图片描述


在这里插入图片描述

增加一段内容

"tools":{"web":{"search":{}, "fetch":{"maxChars":20000, "timeoutSeconds":30, "userAgent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36"}}}, 

4 openclaw.json配置文件全部内容

{"meta":{"lastTouchedVersion":"2026.2.19-2", "lastTouchedAt":"2026-02-21T06:04:19.113Z"}, "wizard":{"lastRunAt":"2026-02-21T06:04:19.057Z", "lastRunVersion":"2026.2.19-2", "lastRunCommand":"onboard", "lastRunMode":"local"}, "logging":{"level":"info"}, "models":{"providers":{"ollama":{"baseUrl":"http://127.0.0.1:11434/v1", "apiKey":"ollama-local", "api":"openai-completions", "models":[{"id":"gpt-oss:20b", "name":"gpt-oss:20b", "reasoning": false, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":131072, "maxTokens":16384}]}}}, "agents":{"defaults":{"model":{"primary":"ollama/gpt-oss:20b"}, "models":{"ollama/gpt-oss:20b":{}}, "workspace":"C:\\Users\\Administrator\\.openclaw\\workspace", "compaction":{"mode":"safeguard"}, "maxConcurrent":4, "subagents":{"maxConcurrent":8}}}, "tools":{"web":{"search":{}, "fetch":{"maxChars":20000, "timeoutSeconds":30, "userAgent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36"}}}, "messages":{"ackReactionScope":"group-mentions"}, "commands":{"native":"auto", "nativeSkills":"auto", "restart":true}, "hooks":{"internal":{"enabled": true, "entries":{"boot-md":{"enabled":true}, "session-memory":{"enabled":true}}}}, "channels":{"telegram":{"enabled": true, "dmPolicy":"pairing", "botToken":"用你自己的代替", "groupPolicy":"allowlist", "streamMode":"partial", "network":{"autoSelectFamily":true}, "proxy":"http://127.0.0.1:7897", "actions":{"reactions": true, "sendMessage": true, "deleteMessage": true, "sticker":true}}}, "gateway":{"port":18789, "mode":"local", "bind":"loopback", "auth":{"mode":"token", "token":"用你自己的代替"}, "tailscale":{"mode":"off", "resetOnExit":false}, "remote":{"url":"ws://127.0.0.1:18789", "token":"你设置的密码代替"}, "nodes":{"denyCommands":["camera.snap", "camera.clip", "screen.record", "calendar.add", "contacts.add", "reminders.add"]}}, "skills":{"install":{"nodeManager":"npm"}}, "plugins":{"entries":{"telegram":{"enabled":true}}}}

Read more

造相-Z-Image本地AI绘画:RTX 4090打造个人写实图像工作室

造相-Z-Image本地AI绘画:RTX 4090打造个人写实图像工作室 1. 这不是又一个SDXL套壳——Z-Image为什么值得你腾出显存? 你是不是也试过:花半小时下载模型、改十次配置、调八遍参数,最后生成一张灰蒙蒙的图,还带着诡异的肢体扭曲?或者更糟——刚点“生成”,显存就爆了,控制台刷出一长串红色报错,连错误在哪都找不到。 造相-Z-Image不是这样。 它不包装旧模型,不堆砌插件,不做“兼容所有卡”的妥协。它从第一天起,就只为你桌面上那块沉甸甸的RTX 4090而生。 这不是一句宣传语。当你把项目克隆下来、执行python app.py,它不会去网上拉模型权重,不会弹出一堆依赖报错,也不会要求你手动编译CUDA扩展。它直接从你指定的本地路径加载通义千问官方发布的Z-Image模型文件,30秒内完成BF16精度加载,UI界面自动弹出——你看到的第一个提示,是「 模型加载成功 (Local Path)」。 没有云服务、没有API密钥、没有后台上传。你的提示词不会离开显卡,你的草图不会传到服务器,你调试时删掉的17张失败稿,永远只存在你自己的SSD里。

Stable Diffusion 3.5 FP8模型推理耗时统计图表展示

Stable Diffusion 3.5 FP8 模型推理性能全解析:如何用一半显存跑出两倍速度?⚡️ 你有没有遇到过这种情况:满怀期待地输入一段精美的提示词,点击“生成”——然后眼睁睁看着 GPU 显存飙到 14GB,风扇狂转,等了整整 6 秒钟才出图……🤯 而隔壁同事用某个神秘模型,2秒搞定、画质还一样好? 别怀疑人生,他们可能只是悄悄升级到了 Stable Diffusion 3.5 FP8。这可不是简单的版本号更新,而是一次从“能用”到“快用”的工业级跃迁。 最近 Stability AI 推出的 SD3.5 FP8 模型,正以惊人的效率重新定义文生图的边界。它到底凭什么让 H100 上的推理时间直接砍半?FP8 又是不是听起来像某种新型充电协议?🔌 咱们今天就来扒一扒这个“

安卓端 AI 绘画新突破:local-dream 项目让 Stable Diffusion 在手机端高效运行,骁龙 NPU 加速加持

安卓端AI绘画新突破:local-dream项目让Stable Diffusion在手机端高效运行,骁龙NPU加速加持 在AI绘画技术飞速发展的当下,Stable Diffusion作为主流模型,凭借出色的图像生成能力备受青睐。然而,其对硬件性能的较高要求,使得多数用户只能在电脑端体验。不过,随着“local-dream”项目的出现,这一局面被彻底打破。该项目专注于让安卓设备流畅运行Stable Diffusion模型,不仅支持高通骁龙NPU加速,还兼容CPU/GPU推理,为移动设备AI绘画开辟了全新路径。 项目核心目标与基础信息 “local-dream”项目的核心目标清晰明确,就是打破硬件限制,让安卓用户无需依赖高性能电脑,在手机或平板上就能轻松体验Stable Diffusion模型的强大图像生成功能。无论是日常创作、创意设计,还是简单的图像生成需求,用户都能随时随地通过安卓设备完成。 对于想要了解和使用该项目的用户,关键信息必不可少。项目的GitHub地址为https://github.com/xororz/local-dream,用户可以在这里获取项目的源代码、详细

AIGC产品经理面试题汇总|从 0 到 1 做 AIGC 产品,核心能力与面试考点全拆解

2026年,生成式AI已经彻底走完了从技术爆发到产业落地的关键周期。当通用大模型的格局逐步固化,垂直行业的AIGC应用遍地开花,AI产品经理早已从互联网行业的“加分岗”,变成了科技企业、传统产业数字化转型的核心刚需岗。 但市场始终存在严重的人才供需错配:传统产品经理懂用户、懂流程,却摸不透AIGC的技术边界与产品逻辑;技术背景的从业者懂模型、懂算法,却无法把技术能力转化为可落地的用户价值与商业闭环。这也导致了AIGC产品岗的面试呈现出极强的两极分化——背概念的候选人一抓一大把,能真正讲清“从0到1做一款AIGC产品”的人寥寥无几。 这篇文章,我们不止于罗列面试题,更要拆解AIGC产品经理的核心能力模型,还原从0到1操盘AIGC产品的全链路流程,深挖大厂高频面试题背后的考察逻辑,同时结合产业趋势给出前瞻性判断。无论是想入行AIGC领域的产品新人,还是想突破职业瓶颈的资深产品人,都能从中找到可复用的方法论与可落地的行动指南。 第一章 认知破界:AIGC产品经理的核心定位与底层认知 这是所有面试的开篇考点,也是做AIGC产品的底层逻辑。面试官问基础认知题,从来不是想听你背大模型的定