OpenClaw 龙虾 AI 模型配置教程

我给你做最细、零基础、照着点就能配好的「OpenClaw 龙虾 + 国内AI大模型」配置教程,只讲你现在能用的:通义千问(阿里)、文心一言(百度)、DeepSeek,这三个国内最稳、最好用。

一、先打开龙虾控制面板(第一步必做)

  1. 打开 管理员 PowerShell
  2. 输入这条命令,按回车:

openclaw-cn dashboard

  1. 电脑会自动弹出浏览器
  2. 打开的就是:http://127.0.0.1:18789
  3. 这就是龙虾的后台控制页,后面所有配置都在这里做。

二、所有模型通用配置路径(记住这个流程)

  1. 左边菜单栏点 Models(模型)
  2. 右上角点 Add provider(添加模型厂商)
  3. 选择你要的国内模型
  4. 粘贴 API Key
  5. 接口地址(Endpoint)
  6. Save 保存
  7. 设为 Default Model(默认模型)

下面我一个一个给你写从0拿Key → 填进龙虾的全过程。


三、配置 ① 通义千问(阿里云,最推荐国内模型)

3.1 去阿里云拿到 API Key

  1. 打开阿里云百炼平台:
  2. https://dashscope.console.aliyun.com/
  3. 用支付宝/阿里云账号登录
  4. 左边点 API-KEY管理
  5. 创建新的API-KEY
  6. 复制生成的 API Key(以 sk- 开头)
  7. ⚠️ 只出现一次,一定要复制保存!

3.2 填进 OpenClaw 龙虾

  1. 龙虾控制面板 → Models → Add provider
  2. 选择:Qwen / 通义千问
  3. 填写:
    1. API Key: 粘贴你刚复制的 sk-xxxx
    2. Endpoint / Base URL(固定填这个):https://dashscope.aliyuncs.com/compatible-mode/v1
    3. 模型选择(选一个就行):
    4. qwen-turboqwen-plusqwen-max
    5. Save
    6. Set as default(设为默认)

    四、配置 ② 文心一言(百度)

    4.1 去百度智能云拿 Key

    1. 打开百度智能云千帆:
    2. https://console.bce.baidu.com/qianfan/
    3. 登录 → 开通「千帆大模型平台」
    4. 左边 应用接入创建应用
    5. 创建后拿到 2 个东西:
      1. API Key
      2. Secret Key
    6. 用这两个生成 AccessKey(平台里会自动给)

    4.2 填进龙虾

    1. Models → Add provider → ERNIE / 文心一言
    2. 填写:
      1. AccessKey / Token
      2. Endpoint(固定):https://qianfan.baidubce.com
      3. 模型选:
      4. ernie-3.5ernie-4.0
      5. Save → Set as default

      五、配置 ③ DeepSeek(深度求索,代码强、便宜稳)

      5.1 拿 API Key

      1. 打开 DeepSeek 平台:
      2. https://platform.deepseek.com/
      3. 登录 → 个人中心 → API Keys
      4. 创建 → 复制 sk- 开头的 Key

      5.2 填进龙虾

      1. Models → Add provider → DeepSeek
      2. 填写:
        1. API Key: 你的 sk-xxx
        2. Endpoint(固定):https://api.deepseek.com
        3. 模型选:
        4. deepseek-chat
        5. Save → Set as default

        六、最关键一步:设为默认模型(不设机器人不说话)

        1. 回到 Models 页面
        2. 找到你刚加的国内模型(如通义千问)
        3. 点右边 … 菜单
        4. Set as default model
        5. 出现绿色提示:Default model updated 就成功了

        七、立刻测试:飞书发消息看能不能回复

        1. 保证网关在运行(如果关了就启动):

        openclaw-cn gateway --force

        1. 打开飞书,给你的龙虾机器人发:

        你好

        1. 能正常回复 = 全部配置成功

        八、最常见3个错误(10秒解决)

        1. 机器人不说话
        2. → 没设默认模型 → Models里点 Set as default
        3. 提示 Model not found
        4. → 模型名字填错 → 用我给的名字(qwen-turbo 等)
        5. 提示 API Key 无效
        6. → Key 复制错/漏字符 → 重新去平台复制

        Read more

        2026年各大高校AIGC检测政策汇总(持续更新)

        2026年各大高校AIGC检测政策汇总(持续更新)

        2026年各大高校AIGC检测政策汇总(持续更新) 2026年毕业季正式来临,AIGC检测已经不再是"可能会查",而是"一定会查"。从去年下半年到现在,全国高校密集出台了一系列针对论文AI生成内容的检测政策。本文将为大家做一个尽可能全面的汇总,方便同学们快速了解自己学校的要求,提前做好准备。 本文持续更新,建议收藏。 2026年高校AIGC检测的整体趋势 在详细列出各高校政策之前,先给大家概括一下今年的整体形势: 三大核心变化 1. 检测范围全覆盖:不再只是抽检,而是全部论文必查AIGC 2. 检测标准趋严:AI率阈值从去年普遍的30%收紧到20%甚至10% 3. 处罚力度加大:从"修改后重新提交"升级到"延期答辩"甚至"取消答辩资格" 主要检测平台分布 * 知网AIGC检测系统:覆盖约60%的985/211高校

        Llama.cpp 全实战指南:跨平台部署本地大模型的零门槛方案

        【个人主页:玄同765】 大语言模型(LLM)开发工程师|中国传媒大学·数字媒体技术(智能交互与游戏设计) 深耕领域:大语言模型开发 / RAG知识库 / AI Agent落地 / 模型微调 技术栈:Python / LangChain/RAG(Dify+Redis+Milvus)| SQL/NumPy | FastAPI+Docker ️ 工程能力:专注模型工程化部署、知识库构建与优化,擅长全流程解决方案        「让AI交互更智能,让技术落地更高效」 欢迎技术探讨/项目合作! 关注我,解锁大模型与智能交互的无限可能! 摘要 本文全面解析轻量级大模型推理框架 Llama.cpp,详细讲解其在 Windows(Winget)、Linux、macOS 三大平台的安装步骤,针对新手优化了模型获取、文件整理、可视化部署的全流程,涵盖命令行交互、OpenAI

        【AIGC】冷启动数据与多阶段训练在 DeepSeek 中的作用

        【AIGC】冷启动数据与多阶段训练在 DeepSeek 中的作用

        博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯冷启动数据的作用 * 冷启动数据设计 * 💯多阶段训练的作用 * 阶段 1:冷启动微调 * 阶段 2:推理导向强化学习(RL) * 阶段 3:拒绝采样与监督微调(SFT) * 阶段 4:多场景强化学习 * 💯代码示例:冷启动数据与多阶段训练的实现 * 1. 冷启动微调阶段 * 作用与应用: * 2. 推理导向的强化学习阶段 * 作用与应用: * 3. 拒绝采样与监督微调阶段 * 作用与应用: * 4. 多场景强化学习 * 作用与应用: * 总体流程 * DeepSeek 中的应用 * 💯总结 💯前言 在人工智能领域,深度学习模型的训练和优化往往需要大量的标注数据和计算资源。然而,面对复杂任务时,即使是最先进的技术和大量的训练数据也未必能够保证模型的最优表现。DeepSeek

        AI绘画不求人:Z-Image Turbo本地部署全攻略,开箱即用

        AI绘画不求人:Z-Image Turbo本地部署全攻略,开箱即用 你是不是也经历过这样的时刻:看到一张惊艳的AI插画,立刻打开浏览器搜教程,结果被“CUDA版本冲突”“PyTorch编译失败”“显存不足OOM”这些报错拦在门外?明明只是想画一幅水墨小景,却卡在环境配置第三步,连WebUI的界面都没见着。 别再折腾了。今天这篇不是教你“如何硬刚报错”,而是直接给你一条干净、稳定、真正能跑起来的本地部署路径——专为 Z-Image Turbo 量身定制的 Gradio + Diffusers 极速画板镜像,从下载到出图,全程无需改一行代码、不装一个依赖、不碰一次终端命令。它不是“理论上可行”的方案,而是我亲手在RTX 4060、RTX 3090、甚至16GB显存的MacBook Pro(M3 Max + Metal后端)上反复验证过的“开箱即用”方案。 更关键的是,它解决了国产AI绘画模型落地最头疼的三大痛点:黑图、