OpenClaw gateway start 报 401 Invalid API key?一个环境变量的坑

今天折腾了半小时,终于搞明白为什么 openclaw gateway start 一直报 HTTP 401: Invalid API key,而 openclaw gateway run 却能正常工作。

记录一下,免得以后又踩。


问题现象

openclaw gateway run 前台运行,一切正常,能正常对话。

但换成 openclaw gateway start(systemd 后台服务),就报错:

HTTP 401: Invalid API key 

明明配置文件里 API key 写得好好的,为什么会这样?


原因分析

runstart 的区别:

  • run — 前台运行,直接继承当前 shell 的环境变量
  • start — 通过 systemd 启动后台服务,环境变量是隔离的

问题就出在这里。

我的 shell 里设置了:

exportANTHROPIC_BASE_URL=https://api.aigocode.com exportANTHROPIC_AUTH_TOKEN=sk-xxx... 

gateway run 能继承这些变量,所以能用。但 systemd service 启动时,这些变量根本不存在。

虽然 openclaw.json 配置文件里也写了 apiKey,但 OpenClaw 优先读取环境变量。环境变量不存在时,可能走了默认的 Anthropic 官方 API,然后用配置文件里的 key 去请求——当然会 401。


解决方案

把环境变量加到 systemd service 文件里。

Step 1:找到 service 文件

cat ~/.config/systemd/user/openclaw-gateway.service 

Step 2:在 [Service] section 添加环境变量

[Service] # ... 其他配置 ... Environment=ANTHROPIC_BASE_URL=https://api.aigocode.com Environment=ANTHROPIC_AUTH_TOKEN=sk-你的key [Install] WantedBy=default.target 

⚠️ 注意:Environment 必须放在 [Service] section 里,不能放在 [Install] 后面,否则 systemd 会直接忽略。

Step 3:重新加载并重启

systemctl --user daemon-reload systemctl --user restart openclaw-gateway 

搞定。


踩坑记录

我一开始用 >> 追加环境变量到文件末尾,结果加到了 [Install] section 后面。systemd 日志里有这么一行:

Unknown key name 'Environment' in section 'Install', ignoring. 

直接被忽略了,难怪不生效。


写在最后

这个问题的本质是:前台运行和后台服务的环境变量是隔离的

如果你用的是第三方 API 代理(比如 aigocode),或者自定义了 ANTHROPIC_BASE_URL,记得把这些变量也加到 systemd service 里。

希望这篇文章能帮到遇到同样问题的人。

Read more

Trae CN IDE 中 PHP 开发的具体流程和配置指南

以下是 Trae CN IDE 中 PHP 开发的具体流程和配置指南,结合知识库内容和实际开发需求整理,并附实例说明: 一、安装与初始配置 1. 下载与安装 Trae IDE * 访问 Trae 官网 下载 macOS 或 Windows 版本。 * 安装完成后,启动 Trae,首次运行会进入初始化向导。 2. 初始设置 * 主题与语言:选择暗色/亮色主题,语言设为简体中文。 * 导入配置:从 VS Code 或 Cursor 导入插件、快捷键(保留原有习惯)。 * 登录账号:注册 GitHub/邮箱账号,解锁 AI 功能(如

Spring Cloud+AI :实现分布式智能推荐系统

Spring Cloud+AI :实现分布式智能推荐系统

欢迎文末添加好友交流,共同进步! “ 俺はモンキー・D・ルフィ。海贼王になる男だ!” 引言 * 在当今数字化时代,推荐系统已成为电商平台、内容分发平台、社交网络等互联网产品的核心竞争力之一。从淘宝的"猜你喜欢"、抖音的精准内容推送,到 Netflix 的影视推荐,优秀的推荐系统不仅能显著提升用户留存率和转化率,更能为企业带来可观的商业价值。据统计,亚马逊约 35% 的销售额来自推荐系统,Netflix 则通过推荐算法为用户节省了每年约 10 亿美元的搜索成本。 * 然而,随着业务规模的增长和推荐算法的复杂化,传统的单体架构逐渐暴露出诸多瓶颈。首先,推荐系统涉及用户画像构建、实时行为收集、特征工程、模型推理等多个环节,单体应用难以应对日益复杂的业务逻辑;其次,推荐服务需要处理海量并发请求,单机部署无法满足弹性伸缩的需求;再者,AI 模型的迭代更新日益频繁,单体架构下模型部署往往需要重启整个应用,严重影响线上服务稳定性;最后,企业需要支持 A/B

Python开发从入门到精通:网络爬虫高级应用与Scrapy框架

Python开发从入门到精通:网络爬虫高级应用与Scrapy框架

《Python开发从入门到精通》设计指南第三十九篇:网络爬虫高级应用与Scrapy框架 一、学习目标与重点 💡 学习目标:掌握Python网络爬虫的高级技巧,包括Scrapy框架、分布式爬虫、动态网页爬取、反爬虫策略等;学习Scrapy、Selenium、BeautifulSoup等库的使用;通过实战案例实现网络爬虫应用。 ⚠️ 学习重点:Scrapy框架、分布式爬虫、动态网页爬取、反爬虫策略、Selenium库、BeautifulSoup库、网络爬虫实战。 39.1 网络爬虫概述 39.1.1 什么是网络爬虫 网络爬虫(Web Crawler)是一种程序,用于自动访问网页并提取信息。网络爬虫的应用场景包括数据分析、搜索引擎、内容聚合等。 39.1.2 网络爬虫的流程 * 发送请求:向网页发送HTTP请求。 * 获取响应:获取网页的HTML内容。 * 解析内容:提取网页中的信息。 * 存储数据:将提取的信息存储到数据库或文件中。

企业级部署建议:Qwen3Guard-Gen-WEB权限控制设置

企业级部署建议:Qwen3Guard-Gen-WEB权限控制设置 在将Qwen3Guard-Gen-WEB这类高敏感度安全审核模型投入生产环境前,一个常被低估却至关重要的环节是——权限控制体系的构建。它不是锦上添花的附加配置,而是决定模型能否合规、可控、可持续运行的生命线。Qwen3Guard-Gen-WEB作为阿里开源的生成式安全审核模型,其核心能力在于对文本内容进行三级风险判定(安全/有争议/不安全)并输出可解释依据。但若缺乏严谨的访问控制,这一能力反而可能成为风险源:未授权人员误用导致误判扩散、恶意调用耗尽资源、敏感审核日志外泄引发合规危机……本文不讲模型原理,也不演示基础推理,而是聚焦于企业真实落地中最易踩坑、最需前置规划的环节——如何为Qwen3Guard-Gen-WEB构建一套稳健、可审计、符合等保与GDPR精神的权限控制机制。 1. 为什么Web界面更需要权限控制?——从便利性到风险敞口 Qwen3Guard-Gen-WEB的“一键启动+网页操作”设计极大降低了使用门槛,但恰恰是这种便利性,放大了权限失控的后果。我们来对比两种典型场景: * 无权限控制状态:1