openclaw使用本地llama.cpp

llama.cpp兼容openapi接口,自然可以作为openclaw的后端。
添加自定义provider同前:为openclaw增加自定义provider
反复修改,总是不能得到正确的model状态。

{"meta":{"lastTouchedVersion":"2026.2.3-1", "lastTouchedAt":"2026-02-05T12:16:30.399Z"}, "wizard":{"lastRunAt":"2026-01-30T12:20:58.674Z", "lastRunVersion":"2026.1.29", "lastRunCommand":"onboard", "lastRunMode":"local"}, "models":{"mode":"merge", "providers":{"llamacpp":{"baseUrl":"http://192.168.1.182:8087/v1", "apiKey":"no need key", "api":"openai-completions", "models":[{"id":"Qwen3-8B-Q6_K", "name":"Qwen3", "api":"openai-completions", "reasoning": true, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":262144, "maxTokens":32000}]}}}, "agents":{"defaults":{"model":{"primary":"llamacpp/Qwen3-8B-Q6_K"}, "models":{"llamacpp/Qwen3-8B-Q6_K":{"alias":"Qwen3"}}, "maxConcurrent":4, "subagents":{"maxConcurrent":8}}}, "messages":{"ackReactionScope":"group-mentions"}, "commands":{"native":"auto", "nativeSkills":"auto"}, "gateway":{"port":18789, "mode":"local", "bind":"loopback", "auth":{"mode":"token", "token":"a08c51975f90e3afa566f4af1de977a70b6e9630909cc8c0", "password":"a08c51975f90e3afa566f4af1de977a70b6e9630909cc8c0"}, "tailscale":{"mode":"off", "resetOnExit":false}}, "skills":{"install":{"nodeManager":"npm"}}}

注意C:\Users\yusp7.openclaw\agents\main\agent\models.json,要与config\models\provider里一致,内容不能有重复provider名的:

{"providers":{"llamacpp":{"baseUrl":"http://192.168.1.182:8087/v1", "apiKey":"no need key", "api":"openai-completions", "models":[{"id":"Qwen3-8B-Q6_K", "name":"Qwen3", "api":"openai-completions", "reasoning": true, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":262144, "maxTokens":32000}]}}}
在这里插入图片描述


但是,为什么返回的对话不对?

在这里插入图片描述

Read more

OpenAI Codex vs GitHub Copilot:哪个更适合你的开发需求?2025年深度对比

OpenAI Codex 与 GitHub Copilot:2025年开发者如何做出关键选择? 在2025年的技术栈里,一个高效的AI编程伙伴不再是锦上添花,而是决定项目节奏与质量的核心生产力。面对市场上功能各异的选择,许多开发者,尤其是那些管理着复杂项目或带领团队的技术决策者,常常陷入一个两难的境地:是选择功能全面、能独立处理任务的“AI工程师”,还是选择无缝集成、提供实时灵感的“智能副驾驶”?这不仅仅是工具的选择,更是关于工作流重塑、团队协作模式乃至项目架构未来的战略决策。对于个人开发者、初创团队乃至大型企业的技术负责人而言,理解这两款主流工具——OpenAI Codex与GitHub Copilot——在本质定位、适用场景与成本效益上的深层差异,是避免资源错配、最大化技术投资回报的第一步。本文将深入它们的核心,帮助你根据真实的开发需求,找到那个最契合的“数字搭档”。 1. 核心理念与定位:从“辅助”到“执行”的范式差异 理解Codex和Copilot,首先要跳出“它们都是写代码的AI”这个笼统印象。它们的底层设计哲学决定了完全不同的应用边界。 OpenAI Codex

AIGC浪潮下,图文内容社区数据指标体系如何构建?

AIGC浪潮下,图文内容社区数据指标体系如何构建?

文章目录 * 01 案例:以图文内容社区为例实践数据指标体构建 * 02 4个步骤实现数据指标体系构建 * 1. 明确业务目标,梳理北极星指标 * 2. 梳理业务流程,明确过程指标 * 3. 指标下钻分级,构建多层级数据指标体系 * 4. 添加分析维度,构建完整的数据指标体系 * 03 构建数据指标体系的过程总结 * 作者简介 * 目 录 数据指标体系构建是数据分析师的日常工作之一,常见的指标体系方法论包括根据业务发展进程选取由合成略旦易于拆解的指标作为北极星指标。但在实际业务场景中如何运用方法论构建数据指标体系,以监控业务发展呢? 互联网产品按照用户需求进行分类,可以分为工具类、内容类、社交类、交易类以及游戏类。当然,每一个互联网产品并不一定属于单一的某一类别,其类别可能是交叉的。 那各种不同类型的互联网产品都有什么特点?它们对应的北极星指标又分别是什么呢?各类型互联网产品的特点以及北极星指标总结如表1所示。 表 1 各类型互联网产品的特点以及北极星指标 表1 各类型互联网产品的特点以及北极星指标 表1各类型互联网产品的特点以及

LangFlow与主流大模型对接教程(支持Llama、ChatGLM、Qwen)

LangFlow与主流大模型对接实践指南 在大语言模型(LLM)技术席卷各行各业的今天,越来越多团队希望快速构建智能问答、内容生成或自动化代理系统。然而,即便拥有强大的模型如Llama、ChatGLM或Qwen,实际落地时仍常被复杂的代码结构、繁琐的调试流程和跨团队协作障碍所困扰。 有没有一种方式,能让非程序员也能参与AI应用设计?能否在几分钟内完成一个RAG系统的原型验证? 答案是肯定的——LangFlow 正是为此而生。 LangFlow 是一个为 LangChain 量身打造的可视化开发工具,它将原本需要数百行Python代码才能实现的语言链路,转化为直观的“拖拽+连线”操作。无论是研究人员想快速测试新思路,还是产品经理要演示智能客服概念,LangFlow都能让这一切变得轻而易举。 它的核心魅力在于:把“编码驱动”的AI开发,变成“流程驱动”的交互式实验。你不再需要逐行写LLMChain、PromptTemplate,而是像搭积木一样组合组件,实时看到每一步输出的变化。 更重要的是,LangFlow 并不局限于某一家模型。它天然支持从 Meta 的 Llama 系列,

AI模型大揭秘:豆包、文心一言、DeepSeek、元宝四大模型特点与选择指南!

AI模型大揭秘:豆包、文心一言、DeepSeek、元宝四大模型特点与选择指南!

简介 在生成式AI逐渐普及的今天,你是否遇到过这样的场景:同一个问题,向不同的AI提问,得到的答案质量参差不齐?这背后,其实是不同AI模型因技术基因、训练数据和应用场景的差异,形成了独特的“内容偏好”和“思维模式”。本文将结合最新行业实践,深度解析豆包、文心一言、DeepSeek、元宝四大模型的特点,并教你如何根据自身需求选择最适合的AI工具,拥抱智能时代的变革。 一、四大AI模型的“个性”与底层逻辑 01 豆包(字节系):实用至上的“生活助手” * 偏好:深度绑定字节生态(如抖音、今日头条),青睐结构化内容(如清单、表格、数据图表)和实用技巧类信息。 * 底层逻辑:依托字节的短视频和用户行为数据,擅长处理场景化、轻量级任务,例如生活技巧、产品对比、热点解读。 * 典型场景:查询“如何挑选高性价比手机”,豆包会快速给出参数对比表和购买建议。 02