Openclaw +本地 Ollama +Qwen webUI chat 没有任何反应

测试openclaw 的前端版本,和openclaw gateway 版本是否一致;

通常将 openclaw 升级到最新版本

npm update openclaw

npm list openclaw

2fen@ E:\2fen
└── [email protected]

确保本地 llm 服务正常运行,

启动vllmOllama服务已成功启动!

- 服务地址 : http://127.0.0.1:11434/v1

测试本地llm 运行状态:

curl http://127.0.0.1:11434/v1/models

$env:OPENCLAW_STATE_DIR="e:\指定路径\.openclaw"; $env:OPENCLAW_CONFIG_PATH="e:\指定路径\.openclaw\openclaw.json";  node ./node_modules/openclaw/dist/index.js gateway

用以上命令直接在指定位置运行 openclaw gateway

Read more

【保姆级教程】llama.cpp大模型部署全攻略:CPU/GPU全兼容,小白也能轻松上手!

【保姆级教程】llama.cpp大模型部署全攻略:CPU/GPU全兼容,小白也能轻松上手!

一、简介 * • llama.cpp 是一个在 C/C++ 中实现大型语言模型(LLM)推理的工具 * • 支持跨平台部署,也支持使用 Docker 快速启动 * • 可以运行多种量化模型,对电脑要求不高,CPU/GPU设备均可流畅运行 * • 开源地址参考:https://github.com/ggml-org/llama.cpp • 核心工作流程参考: 二、安装与下载模型(Docker方式) 1. 搜索可用模型 • 这里以 qwen3-vl 模型为例,提供了多种量化版本,每种版本的大小不一样,根据自己的电脑性能做选择,如选择(模型+量化标签):Qwen/Qwen3-VL-8B-Instruct-GGUF:Q8_0 • 可以在huggingface官网中搜索可用的量化模型:https://huggingface.co/models?search=

Intel Arc A770 驱动调优手记:让 Stable Diffusion 出图快 40% 的 6 个关键参数

Intel Arc A770 驱动调优手记:让 Stable Diffusion 出图快 40% 的 6 个关键参数

关键词:Intel Arc A770、Stable Diffusion、驱动调优、OpenVINO、SYCL、XeSS、显存带宽、AI 绘画加速 0 省流结论 表格 复制 调优项默认状态调优后速度提升SYCL runtime 切换Level-ZeroOpenCL+12 %XeSS 内存压缩OffOn+8 %OpenVINO FP16 权重OffOn+10 %显存频率锁定 2100MHz自动手动+6 %核心频率解锁 2.5GHz2400MHz2500MHz+4 %批大小对齐 Xe 核64256+8 %综合 SD XL 512×50 步3.92s2.35s+40 % 整机功耗仅增加 18W(

OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp

文章目录 * 背景:Memory不生效的问题 * OpenClaw的Memory配置 * Ubuntu24.04安装CUDA和cuDNN * 编译llama.cpp * 验证方案1: * 验证方案2:下载并运行Llama-2 7B模型 * 安装node-llama-cpp * 验证Memory * sqlite-vec unavailable * 踩过的坑 * 安装node-llama-cpp的一些提示 * 安装node-llama-cpp的前置条件 * Using `node-llama-cpp` With Vulkan 承接上文:Windows11基于WSL2首次运行Openclaw,并对接飞书应用,我已经在电脑上安装了OpenClaw,接下来解决Memory问题。走了很多弯路,下面主要讲我总结的正确的安装过程。 总结来说:针对Memory不生效的问题,又不想用OpenAI或Gemini,或者只想单纯的节省token,可以按照如下的方式,设置为local模式: * 修改openclaw.json配置 * 安装CUDA和cu

Lingyuxiu MXJ LoRA集成教程:嵌入Stable Diffusion WebUI插件方案

Lingyuxiu MXJ LoRA集成教程:嵌入Stable Diffusion WebUI插件方案 1. 为什么需要这个LoRA引擎?——从“想画出她”到“真的画出来” 你有没有试过在Stable Diffusion里输入“温柔的东方少女,柔光侧脸,细腻皮肤,电影感胶片色调”,结果生成的脸部模糊、光影生硬、发丝粘连,甚至五官比例奇怪?不是模型不行,而是通用底座模型(如SDXL)并不天然懂“Lingyuxiu MXJ”这种高度风格化的审美语言。 Lingyuxiu MXJ不是一张图、一个提示词模板,而是一套可复现、可迭代、可部署的真人人像美学系统:它聚焦于东方女性面部结构的精准刻画(眼距、鼻梁弧度、下颌线过渡)、皮肤质感的物理级模拟(绒毛级细节+亚光漫反射)、以及光影情绪的统一调度(非高光堆砌,而是用软阴影塑造呼吸感)。这套风格无法靠调参或换Lora随便凑出来——它需要被“教懂”,而本项目,就是那个把“