把废弃的腾讯云服务器改为 Openclaw 仅需一句话!!!(附带免费白嫖AI模型)

把废弃的腾讯云服务器改为 Openclaw 仅需一句话!!!(附带免费白嫖AI模型)

大家好,我是热爱探索AI前沿技术的LucianaiB。

前面我尝试了,感兴趣的可以才是部署一下试试

1.在 Windows 上部署 Openclaw:https://mp.weixin.qq.com/s/iF3ED1e649kkmdR26Y1xiw

2.把 Openclaw 接入到 Moltbook:https://mp.weixin.qq.com/s/QUrB50iwRGGdkl1LO-Tl8Q

相信很多技术爱好者都有这样的经历:趁着双十一或者大促,脑子一热买了一台腾讯云或者阿里云的服务器。买的时候雄心勃勃,想着要搭建博客、跑脚本、做图床。结果呢?大概率是跑了几个自动化签到脚本后,它就静静地躺在控制台里“吃灰”,每个月白白扣费。

但是在自己的电脑运行 Openclaw 无法做到24小时的在运行,于是我就想到了我有一个好久不用的腾讯云服务器,之前购买主要是跑一些自动化签到脚本,并没有实际做什么具体工作。于是我就想到把废弃的腾讯云服务器改为 Openclaw 的24小时的服务器。

于是,一个大胆的想法诞生了:能不能把我那个闲置的腾讯**云服务器**,改造成一个 24 小时在线的 Openclaw?

今天,我就手把手教大家,如何用一句话,把服务器秒改 Openclaw。

一句话让腾讯云服务器改为 Openclaw

首先打开你的服务器管理网站

👉 直达链接::https://console.cloud.tencent.com/lighthouse/instance/

(如果没有服务器的可以通过左侧的 Openclaw 专属链接获取有更大优惠:https://www.tencentcloud.com/act/pro/FreeTier?referral_code=U0R814D3&lang=en

注:我用的是国内腾讯云服务器,而专属链接获得的是腾讯云国际服务器,网络连接 OpenAI 或 GitHub 会更顺畅。

img

选择你要部署的服务器直接登录即可,登录后如下所示。

img

真正的「0 门槛」启动

你不需要懂代码!!!

直接在右上角点击OrcaTerm AI,唤醒AI助手。

img

只要在 AI 助手中用提示词表达即可,例如:“部署OpenClaw🔥”

img

AI 助手就会自动识别你的需求,并进入部署引导流程。

整个过程不需要输入任何命令,只需要“点确认”。

img

初始化配置向导

部署完成后需要点击手动运行配置一下向导:

openclaw onboard --install-daemon 

下面的现在可以把我的作为参考,详细的也可以看开头1.在 Windows 上部署 Openclaw 位置中有介绍

img
img

下面就是成功了。

img

免费白嫖AI模型(包括 kimi-k2.5 等)

1.注册账号:https://build.nvidia.com/,建议用谷歌登录即可。

2.左上角点击头像,新建一个API Key。

img

3.再次唤醒AI助手,把下面的API KEY换为你自己的,直接扔给它等待就好了。

帮我打开 ~/.openclaw/openclaw.json文件,在 models 部分增加下面的代码,注意:providers 外面还要加一层 models,如果原来配置有models就加到原来的里面 { ... 其他内容不要改 "models": { "providers":{ "英伟达nvidia": { "baseUrl": "https://integrate.api.nvidia.com/v1", "apiKey": "nvapi-HxKN8Zp2-xxxxx-替换成你的 key, "api": "openai-completions", "models": [ { "id": "moonshotai/kimi-k2.5", "name": "moonshotai/kimi-k2.5", "reasoning": false, "input": [ "image", "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 8192 } ] } ... 其他内容不要改 } ... 其他内容不要改 } } 

助手直接帮你配置成功

img

修改模型,输入:openclaw config,修改模型。切记

Model/auth provider 选择 Skip for now

Filter models by provider 中选择你添加的 模型

img
img

输入openclaw gateway restart 重启网关,再输入 openclaw tui 测试模型,问他是什么模型即可。

img

赋予灵魂:接入飞书实现远程操控

在本地运行虽然好,但我们不可能永远守在电脑前。接入飞书(Lark),就能让你在手机上随时随地给家里的电脑下达指令。

1.打开飞书开放平台配置:https://open.feishu.cn/app,新建一个,输入相关信息。

img

2.获取到:App ID和App Secret

img

3.在添加应用能力里选择机器人并添加。

img

4.给机器人开通全部的权限。

img

4.接下来就是下载插件使飞书和 Openclaw 连接。

openclaw plugins inatall @m1heng-clawd/feishu 安装插件:飞书插件 - 支持飞书通道,并且配置好 openclaw config set channels.feishu.appId "cli_xxxxx" openclaw config set channels.feishu.appSecret "your_app_secret" openclaw config set channels.feishu.enabled true 我的飞书信息: App ID:换为你自己在步骤2得到的 App Secret:换为你自己在步骤2得到的 openclaw gateway restart 
img

如果它还是没配置好,那就单独让它配置一下就好了。

img

5.接下来就是在**事件与**回调**(二者缺一不可)**中选择长连接即可(如果没有成功,可能需要上一步重启 Openclaw Gateway 服务)。

img

然后在添加事件中全部勾选即可。

img

6.最后就是插件一个版本进行发布即可,点击左侧“版本管理与发布” -> 创建版本 -> 申请发布。。

img

打开飞书

img

总结与建议

写在最后,我对这套 OpenClaw + 腾讯云 + NVIDIA +飞书 的技术栈做一个客观的总结。

瑕不掩瑜,强烈推荐!

对于手里有闲置服务器(尤其是腾讯云轻量应用服务器)的朋友来说,这几乎是性价比最高的玩法。它不仅能让你熟悉 Linux、API 调试、IM 机器人开发等全套技术栈,还能给你提供一个实实在在的生产力工具。

别让你的服务器再“吃灰”了,现在就动手,把它变成你的赛博伙伴吧!

ending

我创建了一个读者 AI 极客交流及搞钱群,群里都是一群前沿的 AI 极客,经常讨论最新的 AI 消息,用法,以及变现方法。

img

但是任何人在群里打任何广告,都会被我 T 掉。

如果你对这个特别的群,感兴趣,可以公众号后台私信我加入。

暗号:AI

Read more

在普通电脑上跑大模型?!llama.cpp 实战指南(真·CPU救星)

文章目录 * 🤯 为什么你需要关注llama.cpp? * 🚀 手把手实战:十分钟跑通模型 * 第一步:准备战场环境 * 第二步:获取模型文件(关键!) * 第三步:启动模型交互! * 🛠️ 高级玩法解锁 * 💡 我的深度体验报告 * 👍 真香时刻 * 🤔 遇到的坑 * 🌟 超实用场景推荐 * 🔮 未来展望:CPU的逆袭? 还在为没显卡跑不动AI模型发愁?这个开源项目让我的旧笔记本起死回生了! 朋友们!今天要分享一个让我拍桌子叫绝的开源神器——llama.cpp。当初看到这个项目时我整个人都惊呆了:纯C++实现!不需要GPU!普通CPU就能跑! 作为一个常年被显卡价格PUA的程序员,这简直是救命稻草啊! 🤯 为什么你需要关注llama.cpp? 先说说我踩过的坑吧。去年想在家折腾开源大模型,结果: * 显卡要求动不动就16G显存(我的1060直接哭晕) * 装依赖环境能折腾一整天(Python版本地狱啊!) * 跑个7B模型风扇像直升机起飞(邻居以为我在挖矿) 直到发现了Georgi Gergan

By Ne0inhk
如何降低AIGC总体疑似度?7个实用技巧+专业工具真实案例分享

如何降低AIGC总体疑似度?7个实用技巧+专业工具真实案例分享

为什么你的论文总是被标为AIGC疑似? 近年来,随着AI写作工具的普及,一个让无数研究者头疼的问题出现了——AIGC总体疑似度过高。根据各大高校的最新规定,如果论文的AIGC率超过30%,很可能被判定为AI代写,直接取消答辩资格! 根据高校规定,AIGC率超过30%可能被判定为学术不端,面临取消答辩资格的风险。 许多同学反映:"我只是用AI辅助写作,怎么就被判定为学术不端了?" 这背后的原因是AI生成内容具有特定的规律性特征,如固定句式、高频词汇组合等,这些"数字指纹"很容易被检测系统识别。 7个实用降重技巧,亲测有效! 1. 变换表达,重构句式 避免使用AI常见的短句结构,如"首先,"、"综上,"等。将这些碎片化表达整合成完整句子。 示例对比: * 改前:综上所述,研究者们普遍认为企业偿债能力是一个多维度的概念。 * 改后:总之研究人员普遍认同企业偿债能力这一多维度概念。 2. 引入具体数据和案例 通过添加真实的研究数据、

By Ne0inhk

亲测Meta-Llama-3-8B-Instruct:英语对话效果超预期体验分享

亲测Meta-Llama-3-8B-Instruct:英语对话效果超预期体验分享 1. 引言:为何选择 Meta-Llama-3-8B-Instruct? 在当前开源大模型快速迭代的背景下,如何在有限算力条件下实现高质量的英文对话能力成为许多开发者关注的核心问题。Meta 于 2024 年 4 月发布的 Meta-Llama-3-8B-Instruct 模型,凭借其 80 亿参数规模、指令微调优化和 Apache 2.0 可商用协议,迅速成为轻量级部署场景下的热门选择。 本文基于实际部署与测试经验,重点分享使用 vLLM + Open WebUI 构建的推理服务中,该模型在英语对话任务中的表现。通过真实交互案例、性能分析与配置建议,帮助读者判断其是否适合作为英文客服、教育辅助或代码助手等应用场景的技术底座。 值得一提的是,该模型对中文支持较弱,若需中文能力,建议进行额外微调或选用其他多语言优化版本。 2. 模型核心特性解析 2.1 参数规模与硬件适配性 Meta-Llama-3-8B-Instruct 是一个全连接(Dense)结构的 80

By Ne0inhk
【OpenAI】【干货】DALL·E 2全方位教程:零基础快速上手AI图像生成与应用优势解析获取OpenAI API KEY的两种方式,开发者必看全方面教程!

【OpenAI】【干货】DALL·E 2全方位教程:零基础快速上手AI图像生成与应用优势解析获取OpenAI API KEY的两种方式,开发者必看全方面教程!

【干货】DALL·E 2详细教程+应用优势全解析!零基础也能玩转AI图像生成🔥 引言:你真的了解DALL·E 2吗?AI绘画的未来就在这里! 你有没有想过,只用一句话描述,就能生成一幅栩栩如生的图像?这不是科幻,而是DALL·E 2带给我们的现实。作为OpenAI推出的革命性文本生成图像模型,DALL·E 2正在颠覆设计、广告、教育、游戏等多个行业的创作方式。 我有个朋友小李,是一名平面设计师。以前他每天都要花大量时间构思和绘制草图,常常加班到深夜。自从他开始用DALL·E 2,只需输入简单的文字描述,几秒钟内就能获得多张高质量设计稿,灵感和效率双双爆棚!这背后的秘密,就是DALL·E 2强大的AI能力。 今天,我将带你深入了解DALL·E 2的应用优势,并手把手教你如何用Python调用API,快速生成属于你的专属图像。无论你是设计新手,还是技术大咖,都能从中获得实用干货,开启AI创作新时代!🚀 目录

By Ne0inhk