openclaw使用本地llama.cpp

llama.cpp兼容openapi接口,自然可以作为openclaw的后端。
添加自定义provider同前:为openclaw增加自定义provider
反复修改,总是不能得到正确的model状态。

{"meta":{"lastTouchedVersion":"2026.2.3-1", "lastTouchedAt":"2026-02-05T12:16:30.399Z"}, "wizard":{"lastRunAt":"2026-01-30T12:20:58.674Z", "lastRunVersion":"2026.1.29", "lastRunCommand":"onboard", "lastRunMode":"local"}, "models":{"mode":"merge", "providers":{"llamacpp":{"baseUrl":"http://192.168.1.182:8087/v1", "apiKey":"no need key", "api":"openai-completions", "models":[{"id":"Qwen3-8B-Q6_K", "name":"Qwen3", "api":"openai-completions", "reasoning": true, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":262144, "maxTokens":32000}]}}}, "agents":{"defaults":{"model":{"primary":"llamacpp/Qwen3-8B-Q6_K"}, "models":{"llamacpp/Qwen3-8B-Q6_K":{"alias":"Qwen3"}}, "maxConcurrent":4, "subagents":{"maxConcurrent":8}}}, "messages":{"ackReactionScope":"group-mentions"}, "commands":{"native":"auto", "nativeSkills":"auto"}, "gateway":{"port":18789, "mode":"local", "bind":"loopback", "auth":{"mode":"token", "token":"a08c51975f90e3afa566f4af1de977a70b6e9630909cc8c0", "password":"a08c51975f90e3afa566f4af1de977a70b6e9630909cc8c0"}, "tailscale":{"mode":"off", "resetOnExit":false}}, "skills":{"install":{"nodeManager":"npm"}}}

注意C:\Users\yusp7.openclaw\agents\main\agent\models.json,要与config\models\provider里一致,内容不能有重复provider名的:

{"providers":{"llamacpp":{"baseUrl":"http://192.168.1.182:8087/v1", "apiKey":"no need key", "api":"openai-completions", "models":[{"id":"Qwen3-8B-Q6_K", "name":"Qwen3", "api":"openai-completions", "reasoning": true, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":262144, "maxTokens":32000}]}}}
在这里插入图片描述


但是,为什么返回的对话不对?

在这里插入图片描述

Read more

别瞎改了!直接抄DeepSeek这5大降AIGC指令,搭配3款超有效工具,亲测98%暴降至5%!

别瞎改了!直接抄DeepSeek这5大降AIGC指令,搭配3款超有效工具,亲测98%暴降至5%!

毕业季最让人崩溃的瞬间,莫过于信心满满地把DeepSeek辅助写的论文传上去,结果查重报告一片红,AIGC检测率飙到90%以上。 别慌!作为过来人,学姐告诉大家:AI生成的痕迹其实是有解决办法的。 只要你懂得如何指挥DeepSeek自己净化自己,或者用对专业的辅助工具,把AI率降到5%以下真的不是梦。 今天这篇文章,直接上干货。前半部分是5条经过实测的DeepSeek专属降AI指令,后半部分推荐3款确实能把AI率降下来的工具。 建议先收藏,改论文时直接复制使用。 一、【硬核实操】DeepSeek五大深度降AI指令 这部分是核心干货。为了让DeepSeek更好地执行,我将所有复杂的降AI技巧整合成了一段完整、连续的指令。你只需要把论文分段,然后配合下面的指令发送即可,记得要开深度思考和联网搜索哦~ 💡 指令1:针对假大空特征 【原理解析】 AI生成内容最容易被判定为机器痕迹的原因,是大量使用高频、通俗的万能词。根据同义词替换策略,我们需要强制模型调用学术语料库。 📋 复制这段Prompt发送给DeepSeek: 请针对这段文字进行深度学术化重写,重点在于提升词汇的

VS Code Copilot 完整使用教程(含图解)

VS Code Copilot 完整使用教程(含图解)

一、GitHub Copilot 概述 GitHub Copilot 是一款集成在 Visual Studio Code 中的 AI 驱动编码助手,它基于公共代码仓库训练而成,能够支持大多数编程语言和框架。通过自然语言提示和现有代码上下文,Copilot 可提供实时代码建议、解释说明和自动化实现,显著提升开发效率。 核心功能亮点 * 智能代码补全:输入时提供单行到整函数级别的实时建议,支持多种编程语言 * 自主编码模式(Agent Mode):根据自然语言指令,自动规划并执行复杂开发任务,跨文件协调修改 * 自然语言交互:通过聊天界面与代码库对话,提问、解释代码或指定修改需求 * 多文件批量修改:单个指令即可应用更改到项目中多个文件,AI 会分析项目结构并进行协调修改 * 模型灵活切换:可根据速度、推理能力或特定任务需求切换不同 AI 模型,支持接入外部模型 二、安装与设置步骤 获取访问权限 不同用户类型需通过以下方式获取 Copilot 访问权限:

【花雕学编程】Arduino BLDC 之模糊逻辑避障控制机器人

【花雕学编程】Arduino BLDC 之模糊逻辑避障控制机器人

基于 Arduino 的无刷直流电机(BLDC)模糊逻辑避障控制机器人,是将智能控制理论与高效动力系统相结合的典范。它摒弃了传统避障算法中对精确数学模型的依赖,转而模拟人类的经验决策过程,使机器人在复杂、不确定的环境中表现出更强的适应性和鲁棒性。 1、主要特点 基于模糊逻辑的智能决策机制 模糊逻辑控制(FLC)的核心在于处理“不确定性”和“模糊性”,这使其在动态避障中具有天然优势。 突破二值逻辑: 传统控制基于“是/否”、“0/1”的二值逻辑,而模糊逻辑引入了“隶属度函数”,允许变量处于“部分真”的状态。例如,距离不再是具体的“30cm”,而是“较近”、“适中”或“较远”的模糊概念。这种描述方式更贴近人类处理环境信息的方式。 仿人经验控制: 系统通过预设的“If-Then”规则库(如“如果前方距离很近,且左侧距离较远,则向左急转”

FLUX.1-dev与Stable Diffusion对比评测:图像质量与生成速度

FLUX.1-dev与Stable Diffusion对比评测:图像质量与生成速度 作为一名长期关注AI图像生成技术的开发者,我一直在寻找能够在质量和速度之间取得最佳平衡的解决方案。最近,Black Forest Labs开源的FLUX.1-dev模型引起了我的注意,特别是它声称能够在消费级硬件上运行,同时保持出色的图像质量。 今天我将通过实际测试,从图像细节、风格控制、生成速度等多个维度,对比FLUX.1-dev与大家熟悉的Stable Diffusion,看看这两个模型在实际使用中究竟表现如何。 1. 测试环境与方法 为了确保对比的公平性,我搭建了统一的测试环境。使用NVIDIA RTX 4090显卡,24GB显存,Intel i9-13900K处理器,64GB DDR5内存。操作系统为Ubuntu 22.04,所有测试都在相同的硬件和软件环境下进行。 测试方法包括定量评估和定性分析。定量方面主要测量生成速度、内存占用等硬性指标;定性方面则通过同一组提示词生成图像,从视觉质量、细节表现、风格一致性等角度进行对比。 我选择了50组涵盖不同场景的提示词,包括人物肖像、风景