Openclaw ubuntu 22.04部署,超详细,对接百炼模型(中文社区版)

一、安装要求

1、node版本必须>=22.0

node下载网址:https://nodejs.org/en/download

2、linux系统版本大于centos7,推荐用centos8或者ubuntu22或更高版本

3、提前准备好对接的AI平台的ApiKey秘钥,例如百炼,Kimi,MiniMaxopenai等

4、安装openclaw的机器可访问公网

5、参考文档

官网:https://openclaw.ai/

中文社区官网:https://clawd.org.cn/

二、安装步骤

1、安装git

sudo apt update && sudo apt install git -y

git --version

2、安装node

版本必须>=22.0

# 添加 NodeSource 仓库

curl -fsSL https://deb.nodesource.com/setup_22.x  | sudo -E bash -

安装node

sudo apt install -y nodejs

验证 node -v,版本要大于22.0

3、安装openclaw

curl -fsSL https://clawd.org.cn/install.sh | bash (该脚本是中文安装,可自动检测并安装node)

安装完后进入设置页面如下图所示:

确认风险,选择yes后回车

引导模式,选择快速开始

模型选择自定义,本次配置百炼ApiKey

选择第一个API key,Coding Plan是套餐专属 API Key

输入API key

模型选择保持当前,后续可以在界面改

跳过通道选择,都是海外的几乎(相当于选择用什么聊天软件跟他对话)

配置技能,选择yes

技能选择npm,因为已经装了node.js,看个人喜好,常用的是npm

钩子选择session-memory,可以实现长期记忆,不然每次新对话AI都不记得之前的对话

备注:

boot-md是启动时自动加载一段markdown文本当作默认引导内容,常用于把你的规则、偏好、项目背景这些在每次启动时塞进去。

command-logger是把你在openclaw里执行过的命令和关键操作记一份日志,方便排查问题和复盘。你如果比较在意隐私或不想留痕,就别开它。

session-memory是保存会话相关的状态或记忆,让它下次能延续上下文,体验会更连贯。

点击回车后等待20s左右,自动安装完成,记住仪表盘链接(带令牌)

如果有问题,可运行openclaw-cn onboard --install-daemon,重新配置一下

安装网络工具:sudo apt install net-tools

启动openclaw的gateway服务

vim .openclaw/openclaw.json  修改bind为lan,目的是开启外部访问权限。默认只允许本机访问

启动服务:nohup openclaw-cn gateway &(启动的比较慢,耐心等一下)

启动后在浏览器访问

若报错disconnected (1006): no reason需要开启下本地转发,原因为openclaw默认只绑定服务器的本地地址 127.0.0.1,不直接对外网开放,为了安全,可用 SSH 端口转发,就能把服务器本地的 18789 端口映射到自己电脑的端口上

在待访问的电脑powershell执行:

ssh -N -L 18789:127.0.0.1:18789 [email protected]  (更换成安装openclaw的机器以及账号)

再次访问

openclaw正常返回结果安装成功

4、更换模型

若想采用其他模型,可以在web界面进行更改

【配置】->【代理】->【Primary Model】,将模型修改想要的模型,比如qwen3.5-plus,qwen3-max-2026-01-23等

三、注意事项

        在办公电脑上安装OpenClaw因存在数据丢失风险,如有需要,建议在个人测试用电脑上安装,做好数据隔离~

Read more

可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

小巧的MCPHost MCPHost 可以在命令行下使用,使大型语言模型(LLM)能够通过模型上下文协议(MCP)与外部工具进行交互。目前支持Claude 3.5 Sonnet和Ollama等。本次实践使用自己架设的Deepseek v3模型,跑通了Time MCP服务。  官网:GitHub - mark3labs/mcphost: A CLI host application that enables Large Language Models (LLMs) to interact with external tools through the Model Context Protocol (MCP). 下载安装 使用非常方便,直接下载解压即可使用。官网提供Windows、Linux和MacOS三个系统的压缩包: https://github.com/

By Ne0inhk
实战篇:Python开发monogod数据库mcp server看完你就会了

实战篇:Python开发monogod数据库mcp server看完你就会了

原创不易,请关注公众号:【爬虫与大模型开发】,大模型的应用开发之路,整理了大模型在现在的企业级应用的实操及大家需要注意的一些AI开发的知识点!持续输出爬虫与大模型的相关文章。 前言 目前mcp协议是给deepseek大模型插上工具链的翅膀,让大模型不仅拥有超高的推理和文本生成能力,还能具备执行大脑意识的工具能力! 如何开发一个mcp? mcp是一种协议,指的是模型上下文协议 (Model Context Protocol)。 官方结成的mcp https://github.com/modelcontextprotocol/python-sdk mcp库 pip install mcp from mcp.server.fastmcp import FastMCP 我们先来做一个简单的案例 from mcp.server.fastmcp import FastMCP import requests mcp = FastMCP("spider") @mcp.tool() def crawl(

By Ne0inhk
AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 作者:高瑞冬 本文目录 * AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 * 一、MCP协议简介 * 二、创建MCP工具集 * 1. 获取MCP服务地址 * 2. 在FastGPT中创建MCP工具集 * 三、测试MCP工具 * 四、AI模型调用MCP工具 * 1. 调用单个工具 * 2. 调用整个工具集 * 五、私有化部署支持 * 1. 环境准备 * 2. 修改docker-compose.yml文件 * 3. 修改FastGPT配置 * 4. 重启服务 * 六、使用MCP-Proxy集成多个MCP服务 * 1. MCP-Proxy简介 * 2. 安装MCP-Proxy * 3. 配置MCP-Proxy * 4. 将MCP-Proxy与FastGPT集成 * 5. 高级配置

By Ne0inhk
【大模型实战篇】基于Claude MCP协议的智能体落地示例

【大模型实战篇】基于Claude MCP协议的智能体落地示例

1. 背景         之前我们在《MCP(Model Context Protocol) 大模型智能体第一个开源标准协议》一文中,介绍了MCP的概念,虽然了解了其概念、架构、解决的问题,但还缺少具体的示例,来帮助进一步理解整套MCP框架如何落地。         今天我们基于claude的官方例子--获取天气预报【1】,来理解MCP落地的整条链路。 2. MCP示例         该案例是构建一个简单的MCP天气预报服务器,并将其连接到主机,即Claude for Desktop。从基本设置开始,然后逐步发展到更复杂的使用场景。         大模型虽然能力非常强,但其弊端就是内容是过时的,这里的过时不是说内容很旧,只是表达内容具有非实时性。比如没有获取天气预报和严重天气警报的能力。因此我们将使用MCP来解决这一问题。         构建一个服务器,该服务器提供两个工具:获取警报(get-alerts)和获取预报(get-forecast)。然后,将该服务器连接到MCP主机(在本例中为Claude for Desktop)。         首先我们配置下环

By Ne0inhk