openclaw使用本地llama.cpp

llama.cpp兼容openapi接口,自然可以作为openclaw的后端。
添加自定义provider同前:为openclaw增加自定义provider
反复修改,总是不能得到正确的model状态。

{"meta":{"lastTouchedVersion":"2026.2.3-1", "lastTouchedAt":"2026-02-05T12:16:30.399Z"}, "wizard":{"lastRunAt":"2026-01-30T12:20:58.674Z", "lastRunVersion":"2026.1.29", "lastRunCommand":"onboard", "lastRunMode":"local"}, "models":{"mode":"merge", "providers":{"llamacpp":{"baseUrl":"http://192.168.1.182:8087/v1", "apiKey":"no need key", "api":"openai-completions", "models":[{"id":"Qwen3-8B-Q6_K", "name":"Qwen3", "api":"openai-completions", "reasoning": true, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":262144, "maxTokens":32000}]}}}, "agents":{"defaults":{"model":{"primary":"llamacpp/Qwen3-8B-Q6_K"}, "models":{"llamacpp/Qwen3-8B-Q6_K":{"alias":"Qwen3"}}, "maxConcurrent":4, "subagents":{"maxConcurrent":8}}}, "messages":{"ackReactionScope":"group-mentions"}, "commands":{"native":"auto", "nativeSkills":"auto"}, "gateway":{"port":18789, "mode":"local", "bind":"loopback", "auth":{"mode":"token", "token":"a08c51975f90e3afa566f4af1de977a70b6e9630909cc8c0", "password":"a08c51975f90e3afa566f4af1de977a70b6e9630909cc8c0"}, "tailscale":{"mode":"off", "resetOnExit":false}}, "skills":{"install":{"nodeManager":"npm"}}}

注意C:\Users\yusp7.openclaw\agents\main\agent\models.json,要与config\models\provider里一致,内容不能有重复provider名的:

{"providers":{"llamacpp":{"baseUrl":"http://192.168.1.182:8087/v1", "apiKey":"no need key", "api":"openai-completions", "models":[{"id":"Qwen3-8B-Q6_K", "name":"Qwen3", "api":"openai-completions", "reasoning": true, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":262144, "maxTokens":32000}]}}}
在这里插入图片描述


但是,为什么返回的对话不对?

在这里插入图片描述

Read more

ctfshow Web入门命令执行29-124全通关详解(看这一篇就够啦~)

文章目录 * 命令执行 * web29-web31:基础注入 * web29 * web30 * web31 * web32-web36:参数逃逸 * web32 * web33 * web34-36 * web37-web39:文件包含+伪协议命令执行 * web37 * web38 * web39 * web40:无参数RCE * web41:无字母RCE * web42-web53:绕过无回显RCE * web42 * web43 * web44 * web45 * web46 * web47-web49 * web50 * web51 * web52 * web52 * web53 * web54:关键词模糊匹配 * web55-web57:字符集受限 RCE * web55 * web56 * we

Web3区块链软件开发全栈解决方案:达普韦伯(Dappweb)2026年实战经验分享

2026年,Web3赛道已从“概念炒作”转向“生产力落地”。香港作为全球RWA与虚拟资产枢纽,SFC监管框架全面收紧,稳定币条例、储备审计、链上合规要求越来越高。与此同时,内地团队出海面临的最大挑战仍是:如何用全栈技术栈安全、合规、高效地把项目从0到1推到主网。 我最近深度接触了达普韦伯(Dappweb,官网dappweb.cn),这家香港+西安双基地的Web3技术服务商。他们专注区块链、AI与可信数据融合,已服务超200家国内外客户,涵盖公链定制、数字资产交易所、DApp全栈开发、RWA代币化等。以下基于他们的2026年实战案例,分享一套真正能落地的全栈解决方案思路。 1. 2026年Web3开发的核心痛点:为什么“全栈”成了刚需? * 碎片化工具链:前端React/Vue + 后端Node + Solidity合约 + 多链桥 + 钱包集成 + 监控……拼凑起来容易出bug,维护成本高。 * 安全与合规双杀:合约漏洞年损失数十亿,香港SFC要求储备披露、反洗钱追踪,内地团队一碰“

webdriver_manager终极指南:彻底解决Selenium浏览器驱动管理难题

webdriver_manager终极指南:彻底解决Selenium浏览器驱动管理难题 【免费下载链接】webdriver_manager 项目地址: https://gitcode.com/gh_mirrors/we/webdriver_manager 在Selenium自动化测试实践中,浏览器驱动管理往往是开发者面临的首要技术障碍。据统计,超过60%的Selenium新手错误都源于驱动版本不匹配或配置不当。webdriver_manager作为专业的Python测试工具,通过智能化的驱动管理机制,让开发者彻底告别手动下载、版本匹配和路径配置的繁琐流程。 驱动管理痛点深度解析 传统Selenium测试环境配置存在三大核心痛点: 版本兼容性问题:浏览器频繁更新导致驱动版本不匹配,测试脚本频繁失效 环境配置复杂性:不同操作系统下驱动路径配置差异大,团队协作困难 维护成本高昂:手动管理多个浏览器驱动版本,耗费大量开发时间 核心功能架构解析 webdriver_manager采用模块化设计,通过四大核心组件实现智能驱动管理: 自动化版本检测机制 系统自动识别本地安装

vLLM-v0.17.1效果展示:vLLM在多轮对话状态跟踪(MultiWOZ)任务表现

vLLM-v0.17.1效果展示:vLLM在多轮对话状态跟踪(MultiWOZ)任务表现 1. vLLM框架简介 vLLM是一个专注于大语言模型(LLM)高效推理和服务的开源库,其核心目标是让开发者能够轻松部署和运行各种规模的LLM。这个项目最初由加州大学伯克利分校的天空计算实验室发起,现在已经发展成为一个活跃的社区项目,汇聚了来自学术界和工业界的众多贡献者。 1.1 核心功能特点 vLLM之所以能在LLM推理领域脱颖而出,主要得益于以下几个关键技术特性: * 高效内存管理:采用创新的PagedAttention技术,智能管理注意力机制中的键值对内存 * 请求处理优化:支持连续批处理传入请求,显著提高服务器吞吐量 * 执行加速:利用CUDA/HIP图技术实现模型快速执行 * 量化支持:全面支持GPTQ、AWQ等多种量化方案(INT4/INT8/FP8等) * 内核优化:与FlashAttention和FlashInfer深度集成,优化CUDA计算效率 1.2 使用灵活性 vLLM在设计上特别注重开发者的使用体验: * 模型兼容性:无缝对接HuggingFa