Claude Code 入门实战 2:多模型配置适配国内主流 AI 厂商

Claude Code 入门实战 2:多模型配置适配国内主流 AI 厂商

突破官方模型限制,灵活接入 DeepSeek、通义千问、智谱 GLM,让智能编码工具真正本地化

前言

Claude Code 作为一款强大的智能编码助手,其核心能力依赖于底层大语言模型的推理能力。然而,Anthropic 官方 Claude 模型在国内的 API 访问体验并不理想,存在延迟高、稳定性差等问题。为了解决这一痛点,Claude Code 提供了灵活的模型配置体系,支持开发者无缝切换底层模型。

本文将系统梳理 Claude Code 的模型配置逻辑,从内置模型的基础用法到如何适配 DeepSeek、阿里百炼(通义千问)、智谱 GLM 等国内主流 AI 模型,帮助你解锁 Claude Code 的全场景使用能力,让智能编码真正落地国内开发环境。

1. Claude Code 模型体系概览

Claude Code 对模型的支持采用分层设计,既提供了便捷的「模型别名」满足日常快速切换,也支持精准的「模型名称」用于固定版本或适配第三方服务商。

1.1 模型标识:别名与精准名称

Claude Code 中 model 字段的配置支持两类核心标识:

  • 模型别名:Anthropic 官方预设的快捷标识,无需记忆复杂的版本号,始终指向对应系列的最新版本,适合日常开发快速切换。
模型别名核心行为与适用场景
default基于账户类型自动匹配推荐模型,平衡性能与成本
sonnet最新 Sonnet 系列(当前 Sonnet 4.5),兼顾推理精度与响应速度,适合日常业务代码编写
opus最新 Opus 系列(当前 Opus 4.6),顶尖复杂推理能力,适合架构设计、疑难 Bug 定位
haikuHaiku 系列,响应极快、资源消耗低,适合简单代码补全、注释生成
sonnet[1m]Sonnet 模型 + 100 万 token 上下文窗口,适配长代码库分析
opusplan混合模式:计划阶段用 Opus,执行阶段用 Sonnet,适合复杂项目分步开发
  • 精准模型名称/标识:针对不同服务商的专属命名规则,例如 Anthropic API 需填写官方完整模型名称(如 claude-opus-4-5-20251101),AWS Bedrock 需填写推理配置文件 ARN,Google Vertex 需填写版本名称等。适用于固定版本或适配第三方服务商。

1.2 模型配置优先级

Claude Code 支持多维度配置模型,优先级从高到低依次为:

  1. 会话内临时切换:输入 /model <别名|精准名称> 实时切换,无需重启工具,适合单次任务调整。
  2. 启动时指定:通过 claude --model <别名|精准名称> 启动工具,本次会话默认使用该模型。
  3. 环境变量配置:设置 ANTHROPIC_MODEL=<别名|精准名称>,全局生效(需重启终端)。
  4. 配置文件永久生效:在 ~/.claude/settings.json(macOS/Linux)中添加 model 字段:
{ "permissions": {}, "model": "opus" }

1.3 模型状态校验与环境变量控制

  • 查看当前模型
    • 终端状态行(若配置)直接显示;
    • 输入 /status 命令,可查看模型信息、账户权限、API 连接状态等。
  • 自定义别名映射:通过环境变量固定别名对应的精准模型,避免别名自动更新带来的不确定性。
环境变量作用
ANTHROPIC_DEFAULT_OPUS_MODEL自定义 opus 别名对应的模型,或 opusplan 计划阶段所用模型
ANTHROPIC_DEFAULT_SONNET_MODEL自定义 sonnet 别名对应的模型,或 opusplan 执行阶段所用模型
ANTHROPIC_DEFAULT_HAIKU_MODEL自定义 haiku 别名对应的模型
CLAUDE_CODE_SUBAGENT_MODEL自定义子代理功能使用的模型

注意:旧版环境变量 ANTHROPIC_SMALL_FAST_MODEL 已弃用,统一替换为 ANTHROPIC_DEFAULT_HAIKU_MODEL

1.4 Prompt Caching 配置:性能与成本优化

Claude Code 默认启用 Prompt Caching,通过缓存重复提示词降低 API 调用成本、提升响应速度。可通过环境变量精细控制:

环境变量功能
DISABLE_PROMPT_CACHING=1全局禁用所有模型的 Prompt Caching
DISABLE_PROMPT_CACHING_HAIKU=1仅禁用 Haiku 模型的 Prompt Caching
DISABLE_PROMPT_CACHING_SONNET=1仅禁用 Sonnet 模型的 Prompt Caching
DISABLE_PROMPT_CACHING_OPUS=1仅禁用 Opus 模型的 Prompt Caching

全局禁用优先级高于模型专属禁用。

2. 国内主流 AI 模型接入实战

针对国内开发者的需求,以下梳理 DeepSeek、阿里百炼(通义千问)、智谱 GLM 等主流模型的接入流程,核心思路均为 「替换 API 地址 + 配置专属密钥 + 适配模型名称」

2.1 主流模型基础信息

厂商/品牌核心优势官方模型名称示例API 密钥申请入口
DeepSeek(深度求索)国产高性价比,编码适配性优deepseek-chatdeepseek-reasonerDeepSeek 平台
阿里百炼(通义千问)阿里云生态,多模型兼容qwen-maxqwen-turboqwen3-coder-plus阿里百炼控制台
智谱 GLM(智谱清言)清华系技术,编码场景优化GLM-4GLM-3-Turbo智谱开放平台
MiniMax多模态能力,音图文混合abab5.5-chatabab6.0-chatMiniMax 平台

接入前置步骤:所有模型均需完成「注册账号 → 实名认证 → 创建 API Key」,具体流程参考各平台官方指引。

2.2 DeepSeek 模型接入实战

DeepSeek 提供了 Anthropic API 兼容接口,可直接通过环境变量配置接入。

临时配置(当前终端)

# 替换为你的 DeepSeek API Key export ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic export ANTHROPIC_AUTH_TOKEN=${DEEPSEEK_API_KEY} # 设置超时时间(建议 10 分钟以上) export API_TIMEOUT_MS=600000 # 指定使用的 DeepSeek 模型 export ANTHROPIC_MODEL=deepseek-chat export ANTHROPIC_SMALL_FAST_MODEL=deepseek-chat # 禁用非必要流量,提升国内访问稳定性 export CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1

永久配置:将上述变量写入 ~/.bashrc 或 ~/.zshrc,然后执行 source ~/.bashrc 生效。

验证接入:进入项目目录执行 claude,输入 /status 查看模型状态,或通过 /model deepseek-chat 手动切换模型。

2.3 阿里百炼(通义千问)模型接入实战

通义千问系列同样支持 Anthropic API 兼容接口,推荐通过配置文件永久生效。

macOS/Linux 配置

mkdir -p ~/.claude vim ~/.claude/settings.json

写入以下内容(替换 YOUR_API_KEY):

{ "env": { "ANTHROPIC_AUTH_TOKEN": "YOUR_API_KEY", "ANTHROPIC_BASE_URL": "https://coding.dashscope.aliyuncs.com/apps/anthropic", "ANTHROPIC_MODEL": "qwen3-coder-plus" } }

重启终端,执行 claude,输入 /model qwen3-coder-plus 确认切换。

Windows 配置(CMD 永久生效)

setx ANTHROPIC_AUTH_TOKEN "YOUR_API_KEY" setx ANTHROPIC_BASE_URL "https://coding.dashscope.aliyuncs.com/apps/anthropic" setx ANTHROPIC_MODEL "qwen3-coder-plus"

PowerShell 配置

[Environment]::SetEnvironmentVariable("ANTHROPIC_AUTH_TOKEN", "YOUR_API_KEY", [EnvironmentVariableTarget]::User) [Environment]::SetEnvironmentVariable("ANTHROPIC_BASE_URL", "https://coding.dashscope.aliyuncs.com/apps/anthropic", [EnvironmentVariableTarget]::User) [Environment]::SetEnvironmentVariable("ANTHROPIC_MODEL", "qwen3-coder-plus", [EnvironmentVariableTarget]::User)

验证环境变量

# CMD echo %ANTHROPIC_AUTH_TOKEN% echo %ANTHROPIC_BASE_URL% echo %ANTHROPIC_MODEL% # PowerShell echo $env:ANTHROPIC_AUTH_TOKEN echo $env:ANTHROPIC_BASE_URL echo $env:ANTHROPIC_MODEL

2.4 智谱 GLM 模型接入实战

智谱 GLM 同样提供了 Anthropic API 兼容端点。

获取 API Key:登录 智谱 GLM Coding Plan 页面 完成实名认证,创建 API Key。

编辑配置文件

vim ~/.claude/settings.json

写入配置(替换 your_zhipu_api_key):

{ "env": { "ANTHROPIC_AUTH_TOKEN": "your_zhipu_api_key", "ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/anthropic", "API_TIMEOUT_MS": "3000000", "CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": 1 } }

验证接入:启动 Claude Code,输入 /status 查看模型状态;若未自动生效,可手动输入 /model GLM-4 切换。

3. 注意事项与最佳实践

  1. 超时配置优化:国内网络环境下建议将 API_TIMEOUT_MS 设置为 300000(5 分钟)及以上,避免因网络波动触发超时中断。
  2. 密钥安全管理:切勿将 API Key 直接硬编码在代码或配置文件中并提交至版本库。推荐通过环境变量或加密的配置文件管理敏感信息。
  3. 模型适配性验证:不同模型对编码场景的适配性存在差异。例如 DeepSeek 适合轻量化编码,通义千问 qwen3-coder-plus 更适合工程化开发,建议根据实际任务选择。
  4. 缓存策略调整:若遇到「提示词更新但模型返回旧结果」的问题,可临时禁用 Prompt Caching(设置 DISABLE_PROMPT_CACHING=1)进行调试,完成后恢复默认配置以降低成本。
  5. 多模型切换技巧:通过 claude --model <别名> 启动或会话内 /model 命令可以快速切换不同模型,方便对比不同厂商的生成效果。

结语

通过 Claude Code 灵活的模型配置体系,开发者可以轻松将底层模型替换为国内主流 AI 厂商的模型,既解决了官方模型访问不畅的问题,又能根据具体任务选择最合适的模型。掌握这些配置技巧,你将能够最大化发挥 Claude Code 的智能编码价值,让 AI 真正成为开发流程中可靠的伙伴。

Read more

AIGC:重塑文学的新力量

AIGC:重塑文学的新力量

目录 一.AIGC 为文学创作带来的新机遇 1.激发创意灵感 2.提高创作效率 3.拓展文学风格和形式 4.促进文学的普及和传播 二.AIGC 对文学创作的挑战 1.版权问题 2.文学价值的质疑 3.对人类作家的冲击 三.如何应对 AIGC 对文学的影响 1.明确版权归属 2.提高文学素养 3.加强人机合作 总结 在科技飞速发展的时代,人工智能生成内容(AIGC)正以惊人的速度闯入文学的领域,为这一古老而充满魅力的艺术形式带来了前所未有的影响。 一.AIGC 为文学创作带来的新机遇 1.激发创意灵感 AIGC 可以根据给定的主题、关键词或风格要求,快速生成大量的文本片段。这些片段可以作为创作者的灵感触发器,帮助他们打破思维定式,开拓新的创作思路。例如,

VS-CODE 里的github copilot 不支持自己配置模型api

1. 关于配置自定义 Claude API 的支持情况 * 结论:不支持。 * 机制说明: * VS Code 官方 GitHub Copilot 扩展(包括 Agent 功能)强制通过 GitHub 的代理服务器进行鉴权和路由。 * 模型切换:GitHub Copilot 允许在订阅权限范围内切换底层模型(例如从 GPT-4o 切换至 Claude 3.5 Sonnet),但这使用的是 GitHub 的企业/个人订阅配额。 * API Key 限制:无法在官方扩展设置中输入个人的 sk-ant-... (Anthropic API Key) 或自定义 Endpoint。 * 替代方案(非官方扩展): * 若必须使用个人 Claude API

AI辅助编程的边界探索:当Copilot学会写测试

AI辅助编程的边界探索:当Copilot学会写测试

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕人工智能这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * AI辅助编程的边界探索:当Copilot学会写测试 🚀 * 1. 从“写代码”到“验代码”:AI的新战场 ⚔️ * 场景设定:一个简单的支付网关模拟器 💳 * 2. 初级实验:AI能写出“Happy Path”吗? ✅ * 3. 进阶实验:Mocking 与 外部依赖 🎭 * 4. 陷阱与幻觉:AI写测试时犯的那些错 🤪 * 案例 A:永远不会错的测试 * 案例 B:永远跑不通的断言 * 案例 C:复杂集成测试的无力 * 5. 人机协作:重新定义测试工作流 🤝 * 实践技巧:如何高效地让AI写测试?

Stable Diffusion+LoRA组合创新:Pixel Fashion Atelier皮革材质建模原理浅析

Stable Diffusion+LoRA组合创新:Pixel Fashion Atelier皮革材质建模原理浅析 1. 项目概述 Pixel Fashion Atelier是一款基于Stable Diffusion与Anything-v5模型的图像生成工作站,专注于时尚设计领域的皮革材质建模。该项目通过创新的LoRA技术应用,实现了高品质皮革纹理的生成与渲染。 不同于传统AI工具,Pixel Fashion Atelier采用了独特的"明亮城镇"视觉风格,将复古日系RPG的界面设计与现代AI技术相结合,为用户带来全新的创作体验。 2. 核心技术架构 2.1 基础模型选择 项目采用Anything-v5作为基础模型,这是目前2.5D与动漫风格表现最平衡的引擎之一。Anything-v5在保持图像清晰度的同时,能够很好地处理复杂材质的表现。 2.2 皮革材质LoRA Leather-Dress-Collection是专门为皮革材质建模开发的LoRA模块,具有以下技术特点: * 材质细节捕捉:能够准确表现皮革特有的纹理、光泽和褶皱 * 风格适配性:与像素艺术风格完