Windowns系统WSL2 Ubuntu 方式部署Openclaw

这是官方推荐的 Windows 部署方式,提供最完整的 Linux 环境支持。

准备:启用适用于Linux的Windows子系统和虚拟化平台,重启电脑。

1. 启用 WSL2

以管理员

身份打开 PowerShell,执行:

# 启用 WSL 功能

dism.exe /online /enable-feature /featurename:Microsoft-Windows-Subsystem-Linux /all /norestart
dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart

# 设置 WSL 2 为默认版本,部分电脑此步可能报错,​​​​​此处暂不理会,​​通过下文中的WSL内核更新解决

wsl --set-default-version 2


 

2. 安装 Ubuntu

方法1 :Microsoft Store 安装(推荐)

  1. 打开 Microsoft Store
  2. 搜索「Ubuntu 24.04 LTS」
  3. 点击「获取」并安装

安装完成后会自动打开 Ubuntu 终端,按提示设置用户名和密码。

方法2 :wsl命令安装

wsl --install -d Ubuntu-24.04

部分电脑报错无法解析服务器的名称或地址

解决方案

  1. 打开 /C:\Windows\System32\drivers\etc文件,添加IP domain的对,如图:

IPaddress中搜索查看IP

启动Ubuntu 24.04 LTS

部分windows安装ubuntu时,报错:Installing, this may take a few minutes... WslRegisterDistribution failed with error: 0x8007019e Error: 0x8007019e ??????? Linux ? Windows ????

这个报错 0x8007019e 通常是因为在安装 Ubuntu 之前,没有先开启 Windows 的 “适用于 Linux 的 Windows 子系统 (WSL)” 功能。

在PowerShell中执行如下命令,然后重启电脑即可

Enable-WindowsOptionalFeature -Online -FeatureName Microsoft-Windows-Subsystem-Linux

重启完成后重新打开Ubuntu 24.04 LTS

首次启动设置用户名和密码,注意在ubuntu中输入密码时没有任何显示,直接输入完成回车即可

 WSL内核更新

1. 在PowerShell中管理员身份运行,执行

wsl --update

如果出现wsl --update 卡在 0%问题

解决方法1:依次执行如下命令

# 停止 Windows Update 服务

net stop wuauserv

# 重新启动服务

net start wuauserv

解决方法2:强制从网络获取最新更新

wsl --update --web-download

2. 执行版本转换命令
现在,运行转换命令。同样在 PowerShell 中,输入

wsl --set-version Ubuntu-24.04 2

 查看版本

wsl -l -v

更新 Ubuntu 系统

在 Ubuntu 终端中执行:

# 更新软件包列表

sudo apt update && sudo apt upgrade -y
sudo apt install -y curl git wget build-essential

安装 Node.js 22+

# 添加 NodeSource 仓库

curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -

# 安装 Node.js

sudo apt install -y nodejs
# 验证版本(必须 ≥ 22.x) node -v npm -v

安装 OpenClaw

一键脚本安装

curl -fsSL https://openclaw.ai/install.sh | bash
通过左右方向键切换 Yes/No 选项,选择 Yes 即表示已了解 OpenClaw 权限相关风险,同意继续配置。

选择Yes

进入 Onboarding mode 选择界面时,对于首次配置的用户,建议优先选择 QuickStart 模式——该模式以「最小配置+最快部署」为目标,可跳过非必要配置项,快速完成 OpenClaw 基础部署。

◆Model/auth provide

配置要使用的模型,可以在这里直接配置,也可以后续通过配置文件处理。

因为笔者使用 moonshot 国内模型,但是 OpenClaw 的配置是国际的会导致接口地址错误,所以笔者先选择 Skip for now 跳过大模型配置,后面再单独设置要使用的模型即可。

保持默认选择All providers,回车即可

Default model

进入 Default model 选择界面时可任意选择一个模型临时占位——该配置后续将通过修改配置文件覆盖,不影响最终使用效果,保持默认选择Keep current,回车即可

◆Select channel (QuickStart)

配置要使用的对话应用,如果用飞书,按要求填参数即可。这里可选 Skip for now ,先跳过选择,后面笔者会单独用一节内容讲解怎么配置。

◇ Skills status

配置技能,可以选 No,根据提示安装一些常用的工具。

按空格选中Skip for now

最后查看界面输出的信息,将这些信息保存下来。

安装完成

此时执行openclaw指令提示“openclaw: command not found”,依次执行如下指令添加openclaw到系统环境变量

mkdir ~/.npm-global
npm config set prefix '~/.npm-global'
echo 'export PATH=~/.npm-global/bin:$PATH' >> ~/.bashrc
source ~/.bashrc

查看gateway状态

http://127.0.0.1:18789/#token=d3f44d798d67a145cbcb0caa5aa9b02de9fdad623384039c

本地模型配置步骤:

Ollama 默认只监听 127.0.0.1,没监听这个虚拟网卡的 IP

第一步:Windows 上设置环境变量,让 Ollama 监听所有接口
以管理员身份打开 PowerShell,执行:

setx OLLAMA_HOST "0.0.0.0" /M

重启 Ollama(任务栏右下角小羊驼图标 → 右键 Quit → 重新从开始菜单启动)。

在 powershell命令行执行:

netstat -an | findstr 11434


如果看到 0.0.0.0:11434 或 :::11434 处于 LISTENING,就成功了。
如果只有 127.0.0.1:11434,说明没生效,重启电脑即可。

第二步:WSL2 里用正确的宿主机 IP 测试
在 WSL2 Ubuntu 中执行(这才是你该用的 IP,不是 172.24.64.1):

bash

ip route show | grep default | awk '{print $3}'

这会输出 Windows 宿主机在 WSL2 网络中的真实网关 IP,大概率是 172.24.64.1 或类似(就是 Windows 的 vEthernet (WSL) 网卡 IP)。

然后用这个 IP 测试:bash

curl http://172.28.240.1:11434/api/tags   # 把 IP 换成你上面查到的

修改配置,建议直接在如下配置基础上修改

{ "wizard": { "lastRunAt": "2026-02-19T08:45:16.629Z", "lastRunVersion": "2026.2.17", "lastRunCommand": "onboard", "lastRunMode": "local" }, "agents": { "defaults": { "model": { "primary": "ollama/qwen3:8b", "fallbacks": [ "openai/gpt-5.1-codex" ] }, "models": { "ollama/qwen3:8b": {}, "openai/gpt-5.1-codex": { "alias": "GPT" } }, "workspace": "/home/rgzn/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "messages": { "ackReactionScope": "group-mentions" }, "commands": { "native": "auto", "nativeSkills": "auto" }, "gateway": { "port": 18789, "mode": "local", "bind": "loopback", "auth": { "mode": "token", "token": "d3f44d798d67a145cbcb0caa5aa9b02de9fdad623384039c" }, "tailscale": { "mode": "off", "resetOnExit": false }, "nodes": { "denyCommands": [ "camera.snap", "camera.clip", "screen.record", "calendar.add", "contacts.add", "reminders.add" ] } }, "meta": { "lastTouchedVersion": "2026.2.17", "lastTouchedAt": "2026-02-19T08:45:16.638Z" }, "models": { "providers": { "ollama": { "baseUrl": "http://172.28.240.1:11434/v1", "apiKey": "ollama-local", "api": "openai-completions", "models": [ { "id": "qwen3:8b", "name": "Qwen3 8B", "reasoning": false, "input": ["text"], "cost": { "input": 0, "output": 0 }, "contextWindow": 131072, "maxTokens": 8192 } ] } } } }

如下图将token替换之前截图保存的

如下图将workspace的中的rgzn替换成对应的名称(命令行@前的内容)

如下图将baseUrl中IP地址修改上面查询到的

 执行如下命令进入配置文件目录

cd ~/.openclaw

备份openclaw.json配置文件,执行如下指令:

mv openclaw.json openclaw.json.bak

执行如下命令修改

nano openclaw.json

如需调用云端deepseek的api配置方式如下:

nano ~/.openclaw/openclaw.json
{ "meta": { "lastTouchedVersion": "2026.2.9", "lastTouchedAt": "2026-02-12T00:45:51.950Z" }, "wizard": { "lastRunAt": "2026-02-12T00:45:51.943Z", "lastRunVersion": "2026.2.9", "lastRunCommand": "configure", "lastRunMode": "local" }, "agents": { "defaults": { "model": { "primary": "deepseek/deepseek-chat", "fallbacks": [ "openai/gpt-5.1-codex" ] }, "models": { "deepseek/deepseek-chat": {}, "openai/gpt-5.1-codex": { "alias": "GPT" } }, "workspace": "/home/syh/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "messages": { "ackReactionScope": "group-mentions" }, "commands": { "native": "auto", "nativeSkills": "auto" }, "gateway": { "port": 18789, "mode": "local", "bind": "loopback", "auth": { "mode": "token", "token": "66682db26fe6f1693570085e2009c52bf8a688901aa542fc" }, "tailscale": { "mode": "off", "resetOnExit": false }, "nodes": { "denyCommands": [ "camera.snap", "camera.clip", "screen.record", "calendar.add", "contacts.add", "reminders.add" ] } }, "skills": { "install": { "nodeManager": "npm" } }, "tools": { "web": { "search": { "enabled": false }, "fetch": { "enabled": true } } }, "models": { "providers": { "deepseek": { "baseUrl": "https://api.deepseek.com/v1", "apiKey": "填入你的API KEY", "api": "openai-completions", "models": [ { "id": "deepseek-chat", "name": "DeepSeek Chat", "reasoning": false, "input": ["text"], "cost": { "input": 0.14, "output": 0.28 }, "contextWindow": 128000, "maxTokens": 4096 } ] } } } }

设置开机自动启动

可以运行以下 PowerShell 命令,查看 AUMID备用

Get-StartApps | Where-Object { $_.Name -like "*Ubuntu*" }


点击创建基本任务

任务命名(名称随意)

选择“计算机启动时”

默认“启动程序”即可

程序或脚本:

explorer.exe

添加参数(红色字体替换成前面查到的AUMID):shell:AppsFolder\CanonicalGroupLimited.Ubuntu24.04LTS_79rhkp1fndgsc!ubuntu2404

点击完成

右键点击任务,点击运行(应该看到ubuntu窗口打开)。

设置完成

Read more

可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

小巧的MCPHost MCPHost 可以在命令行下使用,使大型语言模型(LLM)能够通过模型上下文协议(MCP)与外部工具进行交互。目前支持Claude 3.5 Sonnet和Ollama等。本次实践使用自己架设的Deepseek v3模型,跑通了Time MCP服务。  官网:GitHub - mark3labs/mcphost: A CLI host application that enables Large Language Models (LLMs) to interact with external tools through the Model Context Protocol (MCP). 下载安装 使用非常方便,直接下载解压即可使用。官网提供Windows、Linux和MacOS三个系统的压缩包: https://github.com/

By Ne0inhk
实战篇:Python开发monogod数据库mcp server看完你就会了

实战篇:Python开发monogod数据库mcp server看完你就会了

原创不易,请关注公众号:【爬虫与大模型开发】,大模型的应用开发之路,整理了大模型在现在的企业级应用的实操及大家需要注意的一些AI开发的知识点!持续输出爬虫与大模型的相关文章。 前言 目前mcp协议是给deepseek大模型插上工具链的翅膀,让大模型不仅拥有超高的推理和文本生成能力,还能具备执行大脑意识的工具能力! 如何开发一个mcp? mcp是一种协议,指的是模型上下文协议 (Model Context Protocol)。 官方结成的mcp https://github.com/modelcontextprotocol/python-sdk mcp库 pip install mcp from mcp.server.fastmcp import FastMCP 我们先来做一个简单的案例 from mcp.server.fastmcp import FastMCP import requests mcp = FastMCP("spider") @mcp.tool() def crawl(

By Ne0inhk
【大模型实战篇】基于Claude MCP协议的智能体落地示例

【大模型实战篇】基于Claude MCP协议的智能体落地示例

1. 背景         之前我们在《MCP(Model Context Protocol) 大模型智能体第一个开源标准协议》一文中,介绍了MCP的概念,虽然了解了其概念、架构、解决的问题,但还缺少具体的示例,来帮助进一步理解整套MCP框架如何落地。         今天我们基于claude的官方例子--获取天气预报【1】,来理解MCP落地的整条链路。 2. MCP示例         该案例是构建一个简单的MCP天气预报服务器,并将其连接到主机,即Claude for Desktop。从基本设置开始,然后逐步发展到更复杂的使用场景。         大模型虽然能力非常强,但其弊端就是内容是过时的,这里的过时不是说内容很旧,只是表达内容具有非实时性。比如没有获取天气预报和严重天气警报的能力。因此我们将使用MCP来解决这一问题。         构建一个服务器,该服务器提供两个工具:获取警报(get-alerts)和获取预报(get-forecast)。然后,将该服务器连接到MCP主机(在本例中为Claude for Desktop)。         首先我们配置下环

By Ne0inhk
AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 作者:高瑞冬 本文目录 * AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 * 一、MCP协议简介 * 二、创建MCP工具集 * 1. 获取MCP服务地址 * 2. 在FastGPT中创建MCP工具集 * 三、测试MCP工具 * 四、AI模型调用MCP工具 * 1. 调用单个工具 * 2. 调用整个工具集 * 五、私有化部署支持 * 1. 环境准备 * 2. 修改docker-compose.yml文件 * 3. 修改FastGPT配置 * 4. 重启服务 * 六、使用MCP-Proxy集成多个MCP服务 * 1. MCP-Proxy简介 * 2. 安装MCP-Proxy * 3. 配置MCP-Proxy * 4. 将MCP-Proxy与FastGPT集成 * 5. 高级配置

By Ne0inhk