OpenClaw 龙虾 AI 模型配置教程

我给你做最细、零基础、照着点就能配好的「OpenClaw 龙虾 + 国内AI大模型」配置教程,只讲你现在能用的:通义千问(阿里)、文心一言(百度)、DeepSeek,这三个国内最稳、最好用。

一、先打开龙虾控制面板(第一步必做)

  1. 打开 管理员 PowerShell
  2. 输入这条命令,按回车:

openclaw-cn dashboard

  1. 电脑会自动弹出浏览器
  2. 打开的就是:http://127.0.0.1:18789
  3. 这就是龙虾的后台控制页,后面所有配置都在这里做。

二、所有模型通用配置路径(记住这个流程)

  1. 左边菜单栏点 Models(模型)
  2. 右上角点 Add provider(添加模型厂商)
  3. 选择你要的国内模型
  4. 粘贴 API Key
  5. 接口地址(Endpoint)
  6. Save 保存
  7. 设为 Default Model(默认模型)

下面我一个一个给你写从0拿Key → 填进龙虾的全过程。


三、配置 ① 通义千问(阿里云,最推荐国内模型)

3.1 去阿里云拿到 API Key

  1. 打开阿里云百炼平台:
  2. https://dashscope.console.aliyun.com/
  3. 用支付宝/阿里云账号登录
  4. 左边点 API-KEY管理
  5. 创建新的API-KEY
  6. 复制生成的 API Key(以 sk- 开头)
  7. ⚠️ 只出现一次,一定要复制保存!

3.2 填进 OpenClaw 龙虾

  1. 龙虾控制面板 → Models → Add provider
  2. 选择:Qwen / 通义千问
  3. 填写:
    1. API Key: 粘贴你刚复制的 sk-xxxx
    2. Endpoint / Base URL(固定填这个):https://dashscope.aliyuncs.com/compatible-mode/v1
    3. 模型选择(选一个就行):
    4. qwen-turboqwen-plusqwen-max
    5. Save
    6. Set as default(设为默认)

    四、配置 ② 文心一言(百度)

    4.1 去百度智能云拿 Key

    1. 打开百度智能云千帆:
    2. https://console.bce.baidu.com/qianfan/
    3. 登录 → 开通「千帆大模型平台」
    4. 左边 应用接入创建应用
    5. 创建后拿到 2 个东西:
      1. API Key
      2. Secret Key
    6. 用这两个生成 AccessKey(平台里会自动给)

    4.2 填进龙虾

    1. Models → Add provider → ERNIE / 文心一言
    2. 填写:
      1. AccessKey / Token
      2. Endpoint(固定):https://qianfan.baidubce.com
      3. 模型选:
      4. ernie-3.5ernie-4.0
      5. Save → Set as default

      五、配置 ③ DeepSeek(深度求索,代码强、便宜稳)

      5.1 拿 API Key

      1. 打开 DeepSeek 平台:
      2. https://platform.deepseek.com/
      3. 登录 → 个人中心 → API Keys
      4. 创建 → 复制 sk- 开头的 Key

      5.2 填进龙虾

      1. Models → Add provider → DeepSeek
      2. 填写:
        1. API Key: 你的 sk-xxx
        2. Endpoint(固定):https://api.deepseek.com
        3. 模型选:
        4. deepseek-chat
        5. Save → Set as default

        六、最关键一步:设为默认模型(不设机器人不说话)

        1. 回到 Models 页面
        2. 找到你刚加的国内模型(如通义千问)
        3. 点右边 … 菜单
        4. Set as default model
        5. 出现绿色提示:Default model updated 就成功了

        七、立刻测试:飞书发消息看能不能回复

        1. 保证网关在运行(如果关了就启动):

        openclaw-cn gateway --force

        1. 打开飞书,给你的龙虾机器人发:

        你好

        1. 能正常回复 = 全部配置成功

        八、最常见3个错误(10秒解决)

        1. 机器人不说话
        2. → 没设默认模型 → Models里点 Set as default
        3. 提示 Model not found
        4. → 模型名字填错 → 用我给的名字(qwen-turbo 等)
        5. 提示 API Key 无效
        6. → Key 复制错/漏字符 → 重新去平台复制

        Read more

        Llama Factory隐藏功能:一键生成可部署的API服务

        Llama Factory隐藏功能:一键生成可部署的API服务 作为一名移动应用开发者,当你费尽心思微调好一个文本分类模型后,最头疼的问题可能就是:如何将它快速转化为可调用的API接口?本文将手把手教你利用Llama Factory的隐藏功能,无需复杂编码即可生成可部署的API服务,实现从训练到上线的"最短路径"。 这类任务通常需要GPU环境支持,目前ZEEKLOG算力平台提供了包含Llama Factory的预置镜像,可快速部署验证。下面我们从零开始,完整走通这个流程。 为什么需要API服务化? * 应用集成需求:移动端APP通常通过HTTP请求与后端交互,直接调用模型文件几乎不可行 * 资源隔离:将模型部署为独立服务,避免移动设备性能瓶颈 * 版本管理:API接口可保持稳定,后台模型可随时更新替换 提示:Llama Factory内置的API生成功能基于FastAPI框架,默认支持Swagger文档自动生成。 准备工作:检查你的微调成果 在开始API部署前,请确认你已完成以下步骤: 1. 成功微调模型并保存检查点(通常为adapter_model.bin

        别把 F1 开成老头乐:GitHub Copilot 深度调教与 7 个“上下文工程”秘籍

        别把 F1 开成老头乐:GitHub Copilot 深度调教与 7 个“上下文工程”秘籍

        别把 F1 开成老头乐:GitHub Copilot 深度调教与 7 个“上下文工程”秘籍 前言 很多开发者抱怨 Copilot 生成的代码是“垃圾”或“幻觉”。真相是:Copilot 是一辆 F1 赛车,而大多数人只把它当成了自动挡的老年代步车。 本指南将揭示 Copilot 不为人知的底层机制,教你通过“上下文工程” (Context Engineering),让 AI 写出精准、规范的生产级代码。 核心心智模型:Copilot 是怎么“思考”的? 在学习技巧前,你需要理解 Copilot 的大脑构造。它不是在瞎猜,它是在根据你喂给它的“上下文(Context)”计算概率。 Copilot 的上下文由三层组成:

        智能家居AI侦测方案:树莓派+云端协同,低成本实现

        智能家居AI侦测方案:树莓派+云端协同,低成本实现 引言:为什么需要边缘+云端协同? 智能家居正在从简单的远程控制进化到主动感知环境、预测需求的AI时代。但一个现实难题摆在面前:摄像头、传感器产生的海量数据全部上传云端处理,不仅网络带宽压力大,每月云服务账单也让人肉疼。而如果只依赖树莓派等边缘设备,又难以运行复杂的AI模型。 这就是为什么边缘计算+云端协同成为最优解:让树莓派处理基础检测(如有人移动、异常声音),可疑事件再触发云端深度分析。实测下来,这种架构能降低80%以上的云端计算成本,同时保持高准确率。 1. 硬件准备:百元级树莓派方案 1.1 基础设备清单 * 树莓派4B/5(4GB内存起步):约400-600元 * USB摄像头(推荐罗技C920):200-300元 * 麦克风模块(可选):50-100元 * 移动电源/充电器:确保24小时供电 1.2 系统环境配置 用官方Raspberry Pi

        Z-Image-Turbo文档解读:ZEEKLOG镜像构建技术细节剖析

        Z-Image-Turbo文档解读:ZEEKLOG镜像构建技术细节剖析 1. 引言:当极速文生图遇见开箱即用 想象一下,你有一个绝妙的创意,想立刻把它变成一张高清图片。传统AI绘画工具可能需要漫长的等待,或者需要你折腾复杂的模型部署和环境配置。但现在,情况不同了。 Z-Image-Turbo,这个由阿里巴巴通义实验室开源的高效文生图模型,正以其“8步成图”的闪电速度和媲美专业摄影的图像质量,在开源社区掀起波澜。它最吸引人的地方在于,你不需要顶级的工作站显卡,一块16GB显存的消费级显卡就能流畅运行,让高质量的AI绘画变得触手可及。 然而,对于大多数开发者或爱好者来说,从零开始部署一个AI模型,依然是一个充满挑战的过程:下载几十GB的模型文件、配置复杂的Python环境、解决各种依赖冲突……这个过程足以消磨掉大部分人的热情。 这正是ZEEKLOG镜像的价值所在。我们不是简单地打包一个模型,而是构建了一个生产级、开箱即用的完整解决方案。本文将带你深入解读这个镜像背后的技术细节,看看我们是如何将Z-Image-Turbo的强大能力,封装成一个稳定、易用、随时可运行的服务。 2