如何在 Ubuntu 上安装 OpenClaw (AI 龙虾)

如何在 Ubuntu 上安装 OpenClaw (AI 龙虾)

如何在 Ubuntu 上安装 OpenClaw (AI 龙虾)

OpenClaw 近期备受关注,它是一个能够进行对话、浏览网页和管理文件的 AI 助手。以下是在 Ubuntu 系统上安装 OpenClaw 的步骤,帮助用户避免常见问题,快速完成安装。

img

1. 准备工作:设置环境

OpenClaw 基于 Node.js。建议 Ubuntu 用户安装最新的 Node.js v22 以确保稳定性。

# 更新系统 sudo apt update && sudo apt upgrade -y sudo apt install -y curl git # 安装 Node.js curl -fsSL https://deb.nodesource.com | sudo -E bash - sudo apt install -y nodejs 

检查node版本

img

2. 一键安装 OpenClaw

使用官方 CLI 工具进行全局安装。

sudo npm install -g openclaw@latest 

3. 配置向导

openclaw onboard 

Step 1:安全提醒

提醒 OpenClaw 是实验性软件,会访问你的文件和网络,问你是否了解风险。

img

用键盘左箭头**←**选择yes下一步

Step 2:选择安装模式

img

直接QuickStart(快速开始)

Step 3:选择大模型

img

这里使用kimi,注册有免费额度https://platform.moonshot.cn/console/api-keys | 注册送 ¥15 额度

先点击地址申请api后复制api后续需要使用

img
img

选择模型

img
img

复制刚才生成的api key即可


另外也可以尝试其他模型,配置方式也是大同小异

🦞OpenClaw 适配模型对比表

模型名称厂商/平台核心优势推荐理由注册/获取链接
Claude 3.5 SonnetAnthropic最强逻辑官方演示首选,极其稳定,极少出错,理解复杂指令最强。Anthropic Console
Gemini 1.5 FlashGoogle免费额度高响应极快,支持 1M 超长上下文,每天免费额度充足。Google AI Studio
DeepSeek-V3DeepSeek (深度求索)极致性价比中文逻辑极佳,API 价格极低,Function Calling 适配好。DeepSeek Platform
Qwen 2.5 Coder 7B/32B阿里/硅基流动代码/工具最强开源界的天花板,专门强化了代码编写和工具调用。SiliconFlow
Llama 3.1 70BMeta / Groq极速响应开源标杆,在 Groq 平台上运行速度快到离谱。Groq Cloud
GPT-4oOpenAI全能选手各项指标最均衡,生态支持最广,但价格相对昂贵。OpenAI Platform

Step 4:配置聊天渠道(可跳过)

img

暂时不用后续可通过openclaw onboard修改

Step 5:配置搜索(可跳过)

img

Step 6:配置技能(可跳过)

img

Step 7:启动并在浏览器打开

img
img

打开这个页面就完成了,可以在聊天框聊天了。


总结

OpenClaw 代表了 Agentic Workflow 的新趋势。 在 Ubuntu 上部署后,用户可以利用它编写代码或监控网页变化。

Read more

OpenClaw 都在排队养,你还在云端白嫖?手把手教你用 Python 搭建本地 AI 智能体(小白也能养自己的小龙虾)

OpenClaw 都在排队养,你还在云端白嫖?手把手教你用 Python 搭建本地 AI 智能体(小白也能养自己的小龙虾)

🦞 长文警告! 📜 文章目录(点击跳转,这波操作稳如老狗) 1. 前言:别再当云端 AI 的韭菜了,把“小龙虾”养在自己家 2. 第一步:给电脑装个“胃”——下载安装 Python(含官网地址) 3. 第二步:请个本地“大脑”——Ollama + Qwen 模型(白嫖党狂喜) 4. 第三步:搭个“龙虾笼子”——安装 OpenClaw(附项目地址) 5. 第四步:用 Python 写个“传话筒”,让你的小龙虾听你指挥 6. 第五步:第一次对话——你的本地贾维斯上线 7. 总结:白嫖虽好,但别让龙虾把你的电脑“钳”

OpenClaw 完全指南:部署你的 7×24 小时开源 AI 助手

OpenClaw 完全指南:部署你的 7×24 小时开源 AI 助手

【个人主页:玄同765】 大语言模型(LLM)开发工程师|中国传媒大学·数字媒体技术(智能交互与游戏设计) 深耕领域:大语言模型开发 / RAG知识库 / AI Agent落地 / 模型微调 技术栈:Python / LangChain/RAG(Dify+Redis+Milvus)| SQL/NumPy | FastAPI+Docker ️ 工程能力:专注模型工程化部署、知识库构建与优化,擅长全流程解决方案        「让AI交互更智能,让技术落地更高效」 欢迎技术探讨/项目合作! 关注我,解锁大模型与智能交互的无限可能! 📌 摘要:OpenClaw(原名 Clawdbot/Moltbot)是 2026 年 1 月爆火的开源 AI 助手项目,由 PSPDFKit 创始人

别等这波 AI 算力浪潮过去才后悔:CANN 应该学什么?

别等这波 AI 算力浪潮过去才后悔:CANN 应该学什么?

别等这波 AI 算力浪潮过去才后悔:CANN 应该学什么? 昇腾 CANN 这几年是真在 “狂飙”,生态越做越大、功能越来越多、文档越写越厚…… 但问题也随之出现: CANN 支持 Python、C++、AscendCL、TBE、MindSpore、PyTorch Frontend、Kernel DSL……这么多"语言",到底学哪个?从哪入门? 别急,今天就给你一次性讲透,看完不再迷茫。 CANN 语言体系到底有多复杂? 整个 CANN 软件栈由多层 API 和 Kernel 构成,所以才会出现一堆「看似不同,实则分工明确」的语言接口 为了简化理解,我们可以把它粗暴分成三层: * 高层:框架调用

AMD显卡Vulkan后端兼容性终极指南:llama.cpp本地化部署完整解决方案

AMD显卡Vulkan后端兼容性终极指南:llama.cpp本地化部署完整解决方案 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 还在为AMD显卡上运行llama.cpp时遇到的Vulkan初始化失败而烦恼吗?作为一款高性能的大语言模型C/C++实现,llama.cpp通过Vulkan后端能够充分利用GPU加速推理过程,但AMD显卡用户却常常在兼容性问题上碰壁。别担心,本文将为你提供从问题诊断到性能优化的完整解决方案,让你的AMD显卡在大语言模型推理中发挥真正实力!🚀 🔍 问题识别:为什么我的AMD显卡不兼容? 常见症状自查清单 当你遇到以下任一情况,说明遇到了AMD显卡Vulkan兼容性问题: ✅ 启动崩溃:程序直接退出,日志显示"vkCreateInstance failed" ✅ 加载卡顿:模型进度条停在0%,显示&