OpenClaw 支持 Azure OpenAI 密钥与 Endpoint 配置
OpenClaw 支持 Azure OpenAI 格式的密钥和 Endpoint(如 https://xxx.openai.azure.com/),但并非原生直接支持,需通过配置或代理实现兼容。截至 2026 年 3 月,社区主流方案如下:
当前官方支持情况
- OpenClaw 的官方模型提供者主要包括:OpenAI、Anthropic、Google、Groq、DeepSeek 等标准 OpenAI 兼容 API。
- Azure OpenAI(包括你这种 https://xxx.openai.azure.com/ 格式的 endpoint)没有内置的 'azure' 或 'azure-openai' provider。GitHub 上有多个 feature request issue(如 #6056、#2280)在讨论添加原生支持,但截至 2026 年 3 月,还没完全落地(部分用户报告在最新版本中通过 hack 能用,但不稳定)。
实际能用的几种方式(社区验证有效)
-
最推荐:用 LiteLLM 做代理(丝滑、无需改 OpenClaw 源码)
- LiteLLM 是 OpenAI 兼容的万能代理,支持 Azure OpenAI 一键桥接。
- 步骤简要:
- 安装 LiteLLM(pip install litellm)
- 启动代理:
litellm --config litellm_config.yaml
- 这样 OpenClaw 以为自己在用普通 OpenAI,但实际走你的 Azure endpoint。大量中文教程和 Medium 文章都用这个,成功率很高。
-
直接 hack base_url(部分版本可行,无需代理)
- 如果你的 OpenClaw 版本支持自定义 baseUrl + OpenAI provider:
- 把 provider 设置为 'openai'
- baseUrl 改成:
https://xxx.openai.azure.com/openai/v1(注意加 /openai/v1,这是 Azure 的 v1 兼容路径) - apiKey 填你的 Azure OpenAI key
- deployment 名通常需要在 model 名里指定,如 model: 'gpt-4o' 但实际走你的 deployment。
- 社区有人在 issue 里说加
/openai/v1后直接能用(尤其是 Foundry 模型),但稳定性因版本而异——如果报 404 或格式错误,就切回 LiteLLM。
- 如果你的 OpenClaw 版本支持自定义 baseUrl + OpenAI provider:
-
其他变通
- 用环境变量注入:部分教程提到在 .env 加 AZURE_OPENAI_ENDPOINT、AZURE_OPENAI_API_KEY 等,然后 onboard 时选 Azure(但这更适用于某些 fork 或特定部署脚本)。
- 如果你是企业用户或有 MSDN 订阅,Azure 社区有专门的 OpenClaw + Azure 部署指南,基本都绕不过 LiteLLM 或自定义 endpoint。
在 OpenClaw 的 config(~/.openclaw/openclaw.json 或 UI 设置)把模型 provider 指向 LiteLLM 的本地地址:
{
"models":

