openclaw使用本地llama.cpp

llama.cpp兼容openapi接口,自然可以作为openclaw的后端。
添加自定义provider同前:为openclaw增加自定义provider
反复修改,总是不能得到正确的model状态。

{"meta":{"lastTouchedVersion":"2026.2.3-1", "lastTouchedAt":"2026-02-05T12:16:30.399Z"}, "wizard":{"lastRunAt":"2026-01-30T12:20:58.674Z", "lastRunVersion":"2026.1.29", "lastRunCommand":"onboard", "lastRunMode":"local"}, "models":{"mode":"merge", "providers":{"llamacpp":{"baseUrl":"http://192.168.1.182:8087/v1", "apiKey":"no need key", "api":"openai-completions", "models":[{"id":"Qwen3-8B-Q6_K", "name":"Qwen3", "api":"openai-completions", "reasoning": true, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":262144, "maxTokens":32000}]}}}, "agents":{"defaults":{"model":{"primary":"llamacpp/Qwen3-8B-Q6_K"}, "models":{"llamacpp/Qwen3-8B-Q6_K":{"alias":"Qwen3"}}, "maxConcurrent":4, "subagents":{"maxConcurrent":8}}}, "messages":{"ackReactionScope":"group-mentions"}, "commands":{"native":"auto", "nativeSkills":"auto"}, "gateway":{"port":18789, "mode":"local", "bind":"loopback", "auth":{"mode":"token", "token":"a08c51975f90e3afa566f4af1de977a70b6e9630909cc8c0", "password":"a08c51975f90e3afa566f4af1de977a70b6e9630909cc8c0"}, "tailscale":{"mode":"off", "resetOnExit":false}}, "skills":{"install":{"nodeManager":"npm"}}}

注意C:\Users\yusp7.openclaw\agents\main\agent\models.json,要与config\models\provider里一致,内容不能有重复provider名的:

{"providers":{"llamacpp":{"baseUrl":"http://192.168.1.182:8087/v1", "apiKey":"no need key", "api":"openai-completions", "models":[{"id":"Qwen3-8B-Q6_K", "name":"Qwen3", "api":"openai-completions", "reasoning": true, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":262144, "maxTokens":32000}]}}}
在这里插入图片描述


但是,为什么返回的对话不对?

在这里插入图片描述

Read more

AMD显卡用户专属:零门槛部署本地AI大模型完全指南

AMD显卡用户专属:零门槛部署本地AI大模型完全指南 【免费下载链接】ollama-for-amdGet up and running with Llama 3, Mistral, Gemma, and other large language models.by adding more amd gpu support. 项目地址: https://gitcode.com/gh_mirrors/ol/ollama-for-amd 还在为无法在AMD GPU上运行本地AI大模型而烦恼吗?Ollama-for-amd项目正是为你量身打造的解决方案。这个开源项目专门增强了AMD GPU支持,让你轻松在本地部署Llama 3、Mistral、Gemma等主流大语言模型,充分释放AMD显卡的AI计算潜力。 问题一:我的AMD显卡真的能跑AI模型吗? 解决方案:确认硬件兼容性 首先需要了解你的AMD显卡是否在支持列表中。根据官方文档,以下系列显卡已通过充分测试: Linux系统兼容显卡 * Radeon

当 AI 开始「打工仔」模式:OpenClaw 指挥多个 Agent

当 AI 开始「打工仔」模式:OpenClaw 指挥多个 Agent

当 AI 开始「打工仔」模式:OpenClaw 指挥多个 Agent 你有没有想过:让一个 AI 帮你算数学题,再让另一个 AI 把结果翻译成英文? 这听起来有点「多此一举」——毕竟一个 AI 就能同时做这两件事。但有时候,把任务拆分开来让不同的独立的 Agent 处理,是后续处理复杂任务的必要条件。 今天就分享一次有趣的实验:用OpenClaw 和 两个 Agent 串联完成一个完整的工作流。 前提条件 * openclaw: 2026.2.3 * 如果标记 😬,即用自然语言输入,在 webchat 中输入 * 如果标记 💻,即用命令行输入 如果标记 🔧,即背后的命令,不用管 💡 提示:用户只需用自然语言描述需求,无需手动执行底层命令。底层命令仅供技术参考。

AI代码审查实战:用机器学习揪出隐藏Bug

AI代码审查实战:用机器学习揪出隐藏Bug

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕人工智能这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * AI代码审查实战:用机器学习揪出隐藏Bug 🚀 * 引言:代码审查的痛点与AI的机遇 * 第一部分:识别隐藏敌人 —— 异步循环中的闭包陷阱 🧐 * 第二部分:构建AI审查 pipeline 🛠️ * 第三部分:代码实战 —— 打造你的第一个AI审查器 🐍 * 1. 准备环境 * 2. 核心代码:AST 特征提取与模拟检测 * 代码解析 * 第四部分:进阶 —— 真正的机器学习是怎么做的?🤖 * 1. 数据标注 (Data Labeling) * 2. 特征工程 (Feature Engineering) * 3. 评估指标 * 第五部分:AI代码审查的未来展望 🌌 * 结语

AI辅助架构设计:让快马平台智能生成多链imToken钱包开发方案与安全提示

AI辅助架构设计:让快马平台智能生成多链imToken钱包开发方案与安全提示 开发一个支持多链的去中心化钱包应用确实是个复杂工程,尤其是像imToken这样的成熟产品,需要考虑的细节非常多。最近我在尝试用InsCode(快马)平台的AI辅助功能来梳理这类项目的架构设计,发现它能提供不少实用建议,下面分享下我的实践心得。 1. 项目目录结构设计 合理的目录结构是项目可维护性的基础。通过AI辅助分析,我得到了一个清晰的多链钱包项目结构建议: * src/ * assets/ - 存放静态资源如图标、字体等 * components/ - 可复用的UI组件 * Wallet/ - 钱包相关组件 * Network/ - 网络切换相关组件 * contexts/ - 状态管理上下文 * hooks/ - 自定义Hook * services/ - 业务逻辑服务 * api/ - 与区块链节点交互的API * wallet/ - 钱包核心逻辑 * utils/ - 工具函数 * chains/ -