openclaw喂饭教程!在 Linux 环境下快速完成安装、初始化与 Web UI 配置

openclaw喂饭教程!在 Linux 环境下快速完成安装、初始化与 Web UI 配置

前言

OpenClaw 是一款开源的 AI Agent 工具,但对第一次接触的用户来说,完整跑通流程并不直观。本文以 Linux 环境为例,详细记录了 OpenClaw 的安装、初始化流程、模型选择、TUI 使用方式,以及 TUI 与 Web UI 认证不一致导致的常见问题与解决方法,帮助你最快速度把 OpenClaw 真正跑起来

环境准备

1)安装nodejs

curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash - sudo apt install -y nodejs 
> node --version v22.22.0 

2)安装openclaw

npm install -g openclaw@latest 
> openclaw --version 2026.2.25 

初始化openclaw

openclaw onboard --install-daemon 
  • 为了快速跑起来,先选择QuickStart
    • 有为老哥提出疑问:为什么没有支付宝或者手机之类的登陆方式呢?因为openclaw 作为一个开源工具,其默认的 Qwen 配置(qwen-portal)通常指向国际版 API,国际版显然没有支付宝、国内手机号直接登录等登陆方式,取而代之的是Google 账号、GitHub 账号等,如果没有账号,注册一个账号即可
    • 选择Qwen也是因为门槛地,快速上手,国际版往往提供针对开发者的免费试用额度(如每天 2000 次请求)
    • 后面可以换模型供应商,所以当前的目标是快速搭建并且跑通流程,所以选择Qwen。继续…
    • Set GOOGLE_PLACES_API_KEY for goplaces,是否要选择Google Places API 来查询现实世界中的地点信息(比如电影院、餐馆等),首先是不能使用google服务,并且不在我们本文的流程中,暂时不需要,选否
    • Set GEMINI_API_KEY for nano-banana-pro,询问你是否要为名为 nano-banana-pro 设置 Google Gemini API 密钥,问题还是不能使用google的服务,选否。至于nano-banana-pro是什么东西,我也不知道…
    • Set NOTION_API_KEY for notion?,配置notion的使用权限,notion是什么?Notion 是一款集笔记、文档、任务管理、数据库和协作于一体的“超级办公室”软件。用不上,选否
    • Set ELEVENLABS_API_KEY for sag?,让openclaw说话,而不是只有文字交流,而说话的能力正是ElevenLabs赋予的,它提供的服务是目前行业内领先的文本转语音(Text-to-Speech, TTS)平台。其生成的语音非常自然、富有情感,听起来几乎和真人一样。不在当前流程,先选否

配置完成,回归测试一下

watermarked-openclaw_14

能说中文啊,那就更简单了,现在需要告诉配置初始化一下这个机器人,就像星级穿越里面,男主重新配置TAS一样

watermarked-openclaw_13

这是终结者要来了吗?斯瓦辛格从天而将,并且bgm:”洞洞咚,懂冻,洞洞咚,懂洞咚“

watermarked-openclaw_11

斯瓦辛格能不能说中文阿?

watermarked-openclaw_12

到此基本配置已经结束,下一步问你怎么孵化小机器人,直接选择推荐的方式,使用tui(terminal ui)完成最后一步

watermarked-openclaw_10

下一步询问你是否要启用 Hooks(钩子/插件),选择session-memory,让 AI “记住”之前的对话内容或项目上下文,即使你关闭了终端再重新打开,它也能延续之前的话题

watermarked-openclaw_9

下面的全选否

watermarked-openclaw_8

同样,先跳过,后面再来配置

watermarked-openclaw_7

选择是否配置skills,是

watermarked-openclaw_6

下一步,选择渠道,这里先跳过,因为这一步后面会详细描述,这里的目标还是先完成安装并且跑通

watermarked-openclaw_5

完成登陆之后回到控制台,选择具体模型,选择默认的即可

watermarked-openclaw_4

选择完成之后,会在浏览器弹出登陆页面

watermarked-openclaw_3

选择模型提供商,为了快速测试,这里直接选择Qwen方便快速跑通流程

watermarked-openclaw_2

安装完成

页面配置

watermarked-openclaw_15

为什么tui配置成功了,在webui却一直报错,因为tui和webui使用的是两套完全独立的认证系统

需要把token给应用在页面上就可以了

1)获取token

> cat ~/.openclaw/openclaw.json | grep -o '"token": "[^"]*"' "token": "7da3f004ff2a1e700f229a87fb5ea12c150b37d58199295f" 

2)将参数补充在页面上,token=7da3f004ff2a1e700f229a87fb5ea12c150b37d58199295f

watermarked-openclaw_16

注:如果访问http://127.0.0.1:18789/会有自动跳转,那使用&将参数补充在后面即可

页面也正常了,并且把之前在控制台的聊天记录也同步过来了

总结

本文在linux下实现了安装openclaw,并且完成了基本流程的搭建,至于后面发掘openclaw的更多功能,敬请期待

联系我

  • 联系我,做深入的交流
在这里插入图片描述

至此,本文结束
在下才疏学浅,有撒汤漏水的,请各位不吝赐教…

Read more

DataX-web安装使用教程

DataX-web安装使用教程

1. 环境准备 * MySQL (5.5+)  必选,对应客户端可以选装, Linux服务上若安装mysql的客户端可以通过部署脚本快速初始化数据库 * JDK (1.8.0_xxx)  必选 * Python (2.x) 必选 (支持Python3需要修改替换datax/bin下面的三个python文件,替换文件在doc/datax-web/datax-python3下) ,主要用于调度执行底层DataX的启动脚本,默认的方式是以Java子进程方式执行DataX,用户可以选择以Python方式来做自定义的改造 2.DataX安装 2.1 下载DataX安装包 DataX详情介绍:https://github.com/alibaba/DataX/blob/master/introduction.md DataX官网下载地址:https://github.com/alibaba/DataX 网盘地址链接:https://pan.

全员DeepSeek时代,前端能做些什么?

全员DeepSeek时代,前端能做些什么? 2025–2026 年,随着 DeepSeek V3 / R1 系列(尤其是代码生成、前端页面生成能力)的爆发式提升,“全员DeepSeek”已经从梗变成了很多团队的真实工作流。 AI 正在快速吃掉“机械重复的前端编码”,但这并不意味着前端要凉,反而是一次非常大的角色升级机会。 下面从现实、趋势和可执行路径三个层面给你讲清楚:前端在 DeepSeek 时代到底能/该干什么。 1. 先认清现实:DeepSeek 已经抢走了哪些活? 根据大量实测和社区反馈(2025 年下半年尤为明显),DeepSeek 系列在以下场景已经非常实用: * 常规 CRUD 后台管理系统页面(表单、表格、抽屉、树形结构) * 中后台常见的组件组合(搜索 + 列表 + 分页 + 操作栏) * Tailwind + React / Vue

WebUI界面优化:Emotion2Vec+ Large自定义主题部署实战

WebUI界面优化:Emotion2Vec+ Large自定义主题部署实战 1. 为什么需要优化这个WebUI? Emotion2Vec+ Large语音情感识别系统本身功能强大——它能精准识别9种人类基础情绪,从愤怒到惊喜,从悲伤到中性,甚至支持帧级细粒度分析。但原生Gradio界面有个明显问题:灰白配色、默认布局、缺乏视觉引导,用户第一次打开时常常要花几秒才能找到“上传音频”按钮,更别说理解“utterance”和“frame”这两个专业术语的区别了。 这不是模型的问题,而是交互体验的断层。科哥在二次开发过程中发现,很多用户不是不会用,而是“不敢点”“怕点错”“不知道下一步该做什么”。尤其当面向非技术背景的产品经理、客服主管或心理学研究者时,一个友好的界面,往往比多0.5%的准确率更能决定系统是否被真正用起来。 所以这次优化,我们不碰模型权重,不改推理逻辑,只做一件事:让WebUI自己会说话。 2. 自定义主题部署全流程(零命令行焦虑版) 2.1 准备工作:确认环境已就绪 你不需要重装Python,

DeepSeek-OCR-WebUI部署指南:7种识别模式,GPU加速大模型应用!

DeepSeek-OCR-WebUI部署指南:7种识别模式,GPU加速大模型应用!

前一章调试了官方推理代码,官方代码并没有UI界面,输入输出都不直观。DeepSeek-OCR-WebUI 是一个基于DeepSeek-OCR 模型的图像识别web应用,提供直观的用户界面和识别功能。 相当于给官方的推理代码套了一层外衣。 仓库地址:https://github.com/neosun100/DeepSeek-OCR-WebUI 1.DeepSeek-OCR-WebUI介绍 1.1核心亮点 * • 🎯 7 种识别模式 - 文档、OCR、图表、查找、自定义等 * • 🖼️ 边界框可视化 - Find 模式自动标注位置 * • 📦 批量处理 - 支持多张图片逐一识别 * • 📄 PDF 支持 - 上传 PDF 文件,自动转换为图片 * • 🎨 现代化 UI - 炫酷的渐变背景和动画效果 * • 🌐 多语言支持 - 简体中文、繁体中文、英语、日语