openclaw使用本地llama.cpp

llama.cpp兼容openapi接口,自然可以作为openclaw的后端。
添加自定义provider同前:为openclaw增加自定义provider
反复修改,总是不能得到正确的model状态。

{"meta":{"lastTouchedVersion":"2026.2.3-1", "lastTouchedAt":"2026-02-05T12:16:30.399Z"}, "wizard":{"lastRunAt":"2026-01-30T12:20:58.674Z", "lastRunVersion":"2026.1.29", "lastRunCommand":"onboard", "lastRunMode":"local"}, "models":{"mode":"merge", "providers":{"llamacpp":{"baseUrl":"http://192.168.1.182:8087/v1", "apiKey":"no need key", "api":"openai-completions", "models":[{"id":"Qwen3-8B-Q6_K", "name":"Qwen3", "api":"openai-completions", "reasoning": true, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":262144, "maxTokens":32000}]}}}, "agents":{"defaults":{"model":{"primary":"llamacpp/Qwen3-8B-Q6_K"}, "models":{"llamacpp/Qwen3-8B-Q6_K":{"alias":"Qwen3"}}, "maxConcurrent":4, "subagents":{"maxConcurrent":8}}}, "messages":{"ackReactionScope":"group-mentions"}, "commands":{"native":"auto", "nativeSkills":"auto"}, "gateway":{"port":18789, "mode":"local", "bind":"loopback", "auth":{"mode":"token", "token":"a08c51975f90e3afa566f4af1de977a70b6e9630909cc8c0", "password":"a08c51975f90e3afa566f4af1de977a70b6e9630909cc8c0"}, "tailscale":{"mode":"off", "resetOnExit":false}}, "skills":{"install":{"nodeManager":"npm"}}}

注意C:\Users\yusp7.openclaw\agents\main\agent\models.json,要与config\models\provider里一致,内容不能有重复provider名的:

{"providers":{"llamacpp":{"baseUrl":"http://192.168.1.182:8087/v1", "apiKey":"no need key", "api":"openai-completions", "models":[{"id":"Qwen3-8B-Q6_K", "name":"Qwen3", "api":"openai-completions", "reasoning": true, "input":["text"], "cost":{"input":0, "output":0, "cacheRead":0, "cacheWrite":0}, "contextWindow":262144, "maxTokens":32000}]}}}
在这里插入图片描述


但是,为什么返回的对话不对?

在这里插入图片描述

Read more

ClawdBot文旅场景:景区导览语音翻译+多语种AR文物解说+实时字幕

ClawdBot文旅场景:景区导览语音翻译+多语种AR文物解说+实时字幕 你有没有在故宫看到一块明代石碑,却读不懂上面的繁体铭文?有没有在敦煌莫高窟面对飞天壁画,想听一段地道英语讲解却只能靠手机查词?又或者,在西湖断桥边,外国游客指着雷峰塔问“Why is it so famous?”,而你一时卡壳,说不出白蛇传的来龙去脉? ClawdBot 不是另一个“能聊天”的AI玩具。它是一套为真实文旅现场量身打造的轻量级智能助手系统——不依赖云端API、不上传用户语音和图像、不强制联网,所有能力都跑在你手边的一台边缘设备上:一台带GPU的工控机、一台改装过的景区导览平板,甚至是一台性能尚可的树莓派5。 它把三件过去需要三个App、三套账号、三种网络权限才能完成的事,压进一个本地运行的终端里: 听见游客说的每一句话,秒级翻译成中/英/日/韩/法/西等12种语言,并同步生成双语字幕投射到AR眼镜或导览屏上; 对准一件青铜器拍照,OCR识别铭文后,调用本地大模型生成符合文物背景的多语种语音解说; 在团队讲解模式下,导游手持设备说话,系统实时转写+翻译+字幕上屏,

Deepoc具身模型:重塑采摘机器人“手眼脑”

Deepoc具身模型:重塑采摘机器人“手眼脑”

在农业机器人迈向全场景无人化的进程中,采摘环节始终是智能化落地的“珠穆朗玛峰”。传统方案受困于非结构化环境下的感知失真与刚性执行的物理损伤,导致商业化落地步履维艰。Deepoc具身模型开发板通过引入VLA(视觉-语言-动作)模型架构,为采摘机器人构建了“手眼脑”协同的智能闭环,彻底打破了“看不清、抓不稳、想不明”的技术死结。 一、 VLA架构:从“感知孤岛”到“多模态闭环” 传统采摘机器人的视觉、决策、控制往往是割裂的流水线作业,而Deepoc具身模型开发板的核心在于利用VLA模型实现三者的端侧实时联合推理: * 视觉-语言对齐(Visual-Language Alignment):开发板不再仅依赖RGB像素,而是通过大语言模型(LLM)的语义理解能力,将视觉画面与农艺知识库对齐。例如,当农户发出“优先采摘红透的番茄”这一模糊指令时,VLA模型能瞬间理解“红透”对应的光谱特征,并在复杂叶片遮挡下精准锁定目标,解决了传统CV模型“只见像素不见物”的弊端。 * 语言-动作映射(Language-Motion Mapping):这是VLA的关键突破。它将解析后的语义指令直接映射为机

自适应图像变焦与边界框变换用于无人机目标检测

自适应图像变焦与边界框变换用于无人机目标检测

作者: Tao Wang, Chenyu Lin, Chenwei Tang, Jizhe Zhou, Deng Xiong, Jianan Li, Jian Zhao, Jiancheng Lv 亮点 * 自适应空间变换: 对图像进行自适应空间变换可以有效地放大物体细节。 * 框变换: 框变换使得检测器能够在图像变换的空间中进行训练和推理。 * 实验效果: 在多种无人机图像数据集上的实验表明,该方法以较小的代价获得了有效的增益。 * 灵活模块化设计: 灵活的模块化设计使其能够与其他方法和任务场景集成。 https://arxiv.org/pdf/2602.07512 摘要 由于物体尺寸较小,从无人机(UAV)拍摄的图像中检测物体具有挑战性。在这项工作中,我们探索了一种简单高效的自适应变焦框架,用于无人机图像的目标检测。主要动机是,前景物体通常比普通场景图像中的物体更小且更稀疏,这阻碍了有效目标检测器的优化。因此,我们的目标是自适应地放大物体,以便更好地捕捉用于检测任务的物体特征。为了实现这一目标,需要两个核心设计:i)

vitis安装图文教程:零基础入门FPGA开发环境配置

手把手带你完成 Vitis 安装:从零搭建 FPGA 开发环境 你是不是也曾在搜索“vitis安装”时,被一堆术语、版本号和报错信息搞得晕头转向?明明只是想开始学 FPGA,怎么第一步就卡在了环境配置上? 别急。这篇文章不玩虚的,也不甩文档链接。我会像一个老工程师坐在你旁边一样,一步步带你把 Vitis 装好、跑通、用起来。无论你是电子专业学生、转行嵌入式的新手,还是对硬件加速感兴趣的软件开发者,只要跟着走,2小时内你就能拥有一个完整可用的 FPGA + SoC 开发环境。 为什么是 Vitis?它到底解决了什么问题? 先说清楚一件事: Vitis 不是你传统印象里的 FPGA 工具 。 以前做 FPGA,得写 Verilog/VHDL,画电路图,综合布局布线……门槛高、周期长。而今天很多项目——比如图像识别、