MAC环境部署OpenClaw+本地大模型方案
一、部署环境
硬件环境:Apple M3 Pro
模型:选择Qwen3.5:9b
软件:OpenClaw、Ollama
二、部署Ollama
步骤1、打开一个新的终端,输入下方命令安装ollama
curl -fsSL https://ollama.com/install.sh | sh
步骤2、运行 Ollama 并与 Llava 聊天
ollama run llava
启动成功后,ollama 在本地 11434 端口启动了一个 API 服务,可通过 http://localhost:11434 访问
三、部署OpenClaw
步骤1、一键部署OpenClaw+Qwen3.5:9b
ollama launch openclaw --model qwen3.5:9b
程序会自动部署OpenClaw与Qwen
步骤2、安全提示选择yes

安装成功进入如下界面,即可以通过命令行与Openclaw对话

步骤3、启动WebUI(可选)
模式情况下是启用CTL方式,启动openclawtui需要配置Gateway
在命令行中输入:openclaw config
选择gateway,如下是配置过程
◇ Select sections to configure
│ Gateway
◇ Gateway port
│ 18789
◇ Gateway bind mode
│ Loopback (Local only)
◇ Gateway auth
│ Token
◇ Tailscale exposure
│ Off
◇ Gateway token (blank to generate)
将生成的token粘贴下来,登陆http://127.0.0.1:18789/overview,将token配置网关令牌页面

配置完成即可通过TUI与openclawd对话了

四、附录更好本地模型方法
ollama提供了封装好的命令,可以直接替换openclaw使用的ollama模型ollama launch openclaw --model <模型名称>
如将open claw模型更换成ollama上运行的qwen3.5:27b,则执行如下命令:
ollama launch openclaw --model qwen3.5:27b