前言
最近科技圈最火的,除了 AI,就是开源项目 OpenClaw。GitHub 上 Star 数狂飙,成为史上增长最快的开源项目之一。但很多人一听到'本地部署''Python 环境''命令行',直接劝退。
别慌!这篇教程就是为你这种小白准备的:不会编程没关系,电脑配置一般也能跑,模型和工具全部免费。
本文非常长,从下载哪个按钮到每个命令复制哪一行,都拆开讲。建议先收藏,防止刷着刷着就找不到了。
第一步:给电脑装个'胃'——下载安装 Python
AI 智能体要'吃'的是代码,Python 就是它的饭碗。我们先把它装好。
1.1 打开 Python 官网
- 打开浏览器(Edge / Chrome 都行)。
- 在地址栏输入并回车:https://www.python.org/downloads/
- 你会看到类似这样的页面(不同版本号,布局类似):
- 中间一个大标题:Download Python 3.x.x(比如 3.12.3)。
- 下面有'Download Python install manager'和'Download Python 3.12.3'等链接。
1.2 下载 Windows 安装包
我们以 Windows 64 位系统为例(大多数电脑都是这个):
- 在刚才的页面,往下拉,找到'Stable Releases'区域,或者直接点:Python Releases for Windows
- 进入 Windows 版本列表页面。
- 在列表里选一个稳定版本,比如 Python 3.12.3(页面上会标 Latest Python 3 Release - Python 3.12.3,你也可以选最新的 3.13.x,都行)。
- 在该版本下面,找到类似这样的链接(以 3.12.3 为例):
- Download Windows installer (64-bit)
- 对应链接类似:https://www.python.org/ftp/python/3.12.3/python-3.12.3-amd64.exe
- 点击'Windows installer (64-bit)'链接,开始下载 .exe 安装包。
小提示:如果你不知道自己是 32 位还是 64 位,默认下载 64-bit 就行,现在大部分电脑都是 64 位。
1.3 安装 Python
下载完后,找到下载文件夹里的 python-3.12.3-amd64.exe(或你下载的版本)。
- 双击运行安装程序。
- 你会看到一个窗口,底部有两个复选框,其中一个写着:Add Python to PATH(或者'Add Python to environment variables')。
- 这一步一定要勾选! 不然后面命令行里敲 python 它会告诉你'不是内部或外部命令',很多人就是在这里劝退的。
- 勾选后,点击 Install Now(立即安装)。
- 等待安装完成,看到 Setup was successful 就 OK。
- 点击 Close 关闭窗口。
1.4 检查 Python 是否装好
- 按 Win + R,输入 cmd,回车,打开命令提示符(黑框框)。
- 在黑框里输入:python --version
- 如果看到类似:Python 3.12.3,说明 Python 已经装好了,可以继续下一步。
第二步:请个本地'大脑'——Ollama + Qwen 模型
OpenClaw 本身不自带'脑子',需要我们给它配一个本地大模型。这里我们用:
- Ollama:一个本地运行大模型的工具,一键下载、一键跑模型。
- Qwen:阿里开源的大模型,中文能力强,还能在本地跑,非常适合当'小龙虾'的大脑。
2.1 安装 Ollama
- 打开浏览器,访问:https://ollama.com/
- 点击页面中间的 Download 按钮,选择 Windows 版本下载。
- 下载完后,双击 OllamaSetup.exe,一路 Install 即可。
- 安装完成后,Ollama 会在后台自动运行(任务栏右下角会有一个小图标)。
2.2 验证 Ollama 是否安装成功
- 打开一个新的命令提示符(Win + R → cmd)。
- 如果看到版本号,就说明 Ollama 安装成功。
输入:
ollama --version
2.3 下载 Qwen 模型
- 第一次运行时,Ollama 会自动下载 Qwen 模型(大约 4GB 左右,取决于具体版本)。
- 想退出对话,按 Ctrl + D 或输入 /bye。
下载完成后,你会进入一个对话界面,可以直接在命令行里跟 Qwen 聊天:
ollama run qwen2.5
这个命令来自 Ollama 官方 Qwen 模型库页面。
小提示:如果你的电脑内存不大(比如只有 8GB),可以考虑下载小一点的模型,比如 qwen2.5:0.5b 或 qwen2.5:1.5b,占用内存更小。
第三步:搭个'龙虾笼子'——安装 OpenClaw
接下来,我们安装 OpenClaw,让它把 QQ / Telegram / Slack 等聊天工具和本地模型连起来,变成一个'小龙虾'智能体。
3.1 OpenClaw 项目地址
首先,我们要感谢开源社区的无私奉献!OpenClaw 的 GitHub 地址如下: 👉 https://github.com/OpenClawAI/OpenClaw
3.2 安装 Node.js
OpenClaw 需要 Node.js 环境,我们先把 Node.js 装上。
- 打开浏览器,访问 Node.js 中文下载页:https://nodejs.cn/download/
- 在页面里找到 Windows 安装包 (.msi) 区域,选择 64-bit 下载(例如 node-v20.14.0-x64.msi)。
- 下载完后,双击 .msi 文件,一路 Next 安装即可。
安装完成后,打开新的命令提示符,输入:
node -v
npm -v
如果能看到版本号(比如 v20.14.0),说明 Node.js 安装成功。
3.3 使用 OpenClaw 官方一键安装脚本
OpenClaw 官方文档给了非常简单的安装脚本:
- 按 Win + X,选择'Windows PowerShell(管理员)'。
- 脚本会自动帮你:
- 安装/检查 Node.js 环境;
- 用 npm install -g openclaw@latest 安装 OpenClaw CLI;
- 运行 openclaw onboard --install-daemon,启动一个'新手引导'。
在 PowerShell 中,复制并粘贴下面这条命令,然后回车:
iwr -useb https://openclaw.ai/install.ps1 | iex
3.4 跟着 OpenClaw 新手引导走
运行 openclaw onboard --install-daemon 后,会出现一个交互式引导:
- 同意条款:会提醒你 OpenClaw 权限很大,有安全风险,输入 yes 继续。
- 选择安装模式:一般选 QuickStart(快速开始)。
- 配置模型:
- 在'Model/Auth provider'那一步,选择 Custom Provider(列表最后一项)。
- API Base URL 填:http://127.0.0.1:11434/v1(这是 Ollama 默认地址)。
- API Key 可以随便填一个字符串(比如 ollama),不能留空。
- Endpoint compatibility 选 OpenAI-compatible。
- Model ID 填你刚才在 Ollama 里用的模型名,比如 qwen2.5。
- 选择聊天工具:如果你暂时不想接入 QQ / Telegram,可以先选 WebChat 或直接跳过,后面再配。
- 其他选项(端口、技能等)可以先一路回车使用默认值。
完成后,OpenClaw 会在本地启动一个网关服务,并告诉你:
- Web UI 地址,比如:http://127.0.0.1:18789/
- 一个 token,用于登录 Web 界面。
你可以先在浏览器里打开这个地址,看看 OpenClaw 的控制界面长什么样。
第四步:用 Python 写个'传话筒'
虽然 OpenClaw 已经有了 Web 界面和聊天工具接入,但为了让你真正有'本地 AI 智能体'的感觉,我们用 Python 写一个简单的命令行客户端,直接调用本地模型。
注意:这里我们用的是 Ollama 的 Python SDK,而不是直接调用 OpenClaw。如果你以后想深入玩 OpenClaw,可以再学习它的 Agent 和 Skills 机制。
4.1 安装 ollama Python 包
- 打开命令提示符(Win + R → cmd)。
- 输入:pip install ollama
- 等待安装完成。
4.2 编写一个简单的'本地贾维斯'脚本
- 在桌面新建一个文件夹,比如叫 MyOpenClawAI。
- 进入这个文件夹,在地址栏输入 cmd 并回车,这样打开的命令提示符会直接在这个目录下。
- 在文件夹里新建一个文本文件,改名为 main.py(一定要把 .txt 后缀改成 .py)。
- 用记事本或 VS Code 打开 main.py,把下面的代码复制进去:
# -*- coding: utf-8 -*-
import ollama
def local_jarvis():
print("="*50)
print("本地 AI 智能体已启动!模型:qwen2.5(Ollama)")
print("输入 'exit' 可以退出")
print("="*50 + "\n")
while True:
try:
user_input = input("我说:")
except EOFError:
break
if user_input.lower() in ["exit", "quit", "退出", "q"]:
print("AI:我回去养精蓄锐了,下次再一起干活!拜拜~")
break
# 调用本地 Ollama 模型
try:
response = ollama.chat(
model="qwen2.5",
messages=[{"role": "user", "content": user_input}],
)
print("AI:" + response["message"]["content"] + "\n")
except Exception as e:
print(f"哎呀,出错了:{e}\n")
if __name__ == "__main__":
local_jarvis()
第五步:第一次对话——你的本地贾维斯上线
- 确保 Ollama 还在后台运行(任务栏右下角有图标)。
- 试着输入一句:请用鲁迅的风格,吐槽一下我总是想'白嫖'AI 的心理。
- 小龙虾(其实是 Qwen)会开始在本地计算,然后给你一段鲁迅风格的回答。
在刚才打开的命令提示符(当前目录是 MyOpenClawAI)里输入:
python main.py
回车后,你会看到交互界面开始运行。
总结
到这里,你已经完成了:
- 安装 Python 环境(官网下载 + 勾选 Add to PATH)。
- 安装 Ollama,并下载 Qwen 本地模型。
- 使用官方脚本安装 OpenClaw(Node.js + install.ps1)。
- 用 Python 写了一个简单的'本地贾维斯'客户端,调用本地大模型。
你已经养了一只自己的'小龙虾':
- 它住在你自己电脑里,断网也能聊;
- 不用给云端服务商交钱,只要付出一点点电费;
- 你的隐私数据不会传到别人的服务器上。
但也要注意几点:
- OpenClaw 权限很大,官方文档也提醒有安全风险,不要在存有重要文件的电脑上随便测试,最好用一台'干净'的机器或虚拟机。
- 本地模型吃内存和算力,电脑风扇可能会起飞,注意散热。
- 如果你以后想真正玩转 OpenClaw(接入 QQ、自动发邮件、爬网站等),还需要学习它的 Skills、Agents、Channel 配置,那是进阶玩法了。


