Claude Code + cc-switch 配置指南

本指南旨在引导初次接触的用户,一步步完成 Claude Code 命令行工具 (CLI) 和 cc-switch 的安装与配置。完成配置后,用户即可在代码编辑器的终端中,通过简单的命令,调用 Kimi、GPT-4 或其他主流 AI 模型,辅助完成代码编写、解释和调试等任务。

核心结论Claude Codecc-switch 结合使用,可以显著提升编程工作的效率。

目录
  • 1. 准备工作:配置必需的 Node.js 环境
  • 2. 第一步:安装 Claude Code 命令行工具
  • 3. 第二步:安装 cc-switch 模型管理工具
  • 4. 第三步:获取 AI 模型的 API Key
  • 5. 第四步:在 cc-switch 中配置 AI 模型
  • 6. 第五步:激活配置并进行验证
  • 7. 第六步:在实际项目中使用
  • 8. 注意事项:理解并应对 API 频率限制

1. 准备工作:配置必需的 Node.js 环境

Claude Code CLI 是一个基于 Node.js 的工具,其成功安装和运行严格依赖于系统中的 Node.js 版本。

为什么必须使用较新版本的 Node.js?

Claude Code 的开发者在其包配置中明确指定了所支持的 Node.js 最低版本。如果使用低于要求的版本进行安装,包管理器 (npm) 会无法正确处理依赖关系,并抛出一系列警告,最终导致安装失败或即使安装完成也无法运行。

例如,在 Node.js v14 的环境中尝试安装,会收到如下错误日志:

npm WARN notsup Unsupported engine for @anthropic-ai/[email protected]: wanted: {"node":">=18.0.0"}(current: {"node":"14.18.3","npm":"6.14.15"})npm WARN notsup Not compatible with your version of node/npm: @anthropic-ai/[email protected] 

这行日志清晰地指出:claude-code要求 (wanted) Node.js 版本大于等于 18.0.0,但当前环境 (current) 的版本是 14.18.3,因此不兼容。忽略这些警告将导致后续使用时出现问题。

检查并安装正确的 Node.js 版本
  1. 确认版本要求:请确保输出的版本号为 v18.0.0 或更高
  2. 安装与管理 (推荐使用 nvm)如果版本不符,强烈建议使用 nvm (Node Version Manager) 来进行安装和版本管理。nvm 可以在同一台电脑上维护多个 Node.js 版本并轻松切换。完成切换后,再次运行 node -v 进行确认。
    • 安装 nvm
      • macOS / Linux: 参考 nvm-sh/nvm GitHub 官方指南。
      • Windows: 使用 nvm-windows(适配Windows的nvm版本),具体步骤如下(Node.js自带npm包管理器,旧版本Node/npm会与nvm管理的版本冲突,需先彻底清理):
        1. 备份npm自定义配置(可选):按 Win + R 输入 %AppData%\npm 打开文件夹,若存在 etc\npmrc 文件,复制到桌面备份;无该文件则直接跳过。
        2. 卸载旧版Node.js:打开「控制面板」→「程序和功能」,找到所有名称包含「Node.js」的程序,右键选择「卸载」并按提示完成。
        3. 删除Node/npm残留文件夹
          • Win + R 输入 C:\Program Files\nodejs(或 C:\Program Files (x86)\nodejs),若文件夹存在则删除;
          • 再次按 Win + R 分别输入 %AppData%\npm%AppData%\npm-cache,若文件夹存在则删除。
        4. 下载nvm-windows 1.2.2安装包:打开 nvm-windows 1.2.2 发布页,下拉到「Assets」(资源)区域,点击 nvm-setup.exe 下载(新手推荐此一键安装包)。
        5. 安装nvm-windows
          • 找到下载的 nvm-setup.exe 双击打开,弹出「用户账户控制」时点击「是」;
          • 勾选「I accept the agreement」→ 点击「Next」;
          • 保留默认安装路径(如 C:\Users\你的用户名\AppData\Roaming\nvm)→ 点击「Next」;
          • 保留Node.js符号链接默认路径(C:\Program Files\nodejs)→ 点击「Next」;
          • 点击「Install」开始安装,进度条完成后点击「Finish」。
        6. 验证安装成功:以管理员身份打开CMD/PowerShell,输入 nvm version,若输出 1.2.2 则安装成功。

使用 nvm 安装并切换到 Node.js 18

# 安装 Node.js v18 的最新稳定版 nvm install18# 将当前会话的 Node.js 版本切换为 v18 nvm use 18

检查当前版本:打开终端(在 Windows 上是 CMDPowerShell,在 Mac 上是 Terminal),输入以下命令:

node -v 
2. 第一步:安装 Claude Code 命令行工具

Claude Code 是一个命令行界面 (CLI) 工具,用于在终端内与 AI 进行交互。

在终端中运行以下命令进行安装:

npminstall -g @anthropic-ai/claude-code 
  • npm 是 Node.js 的包管理器,该命令将从 npm 仓库下载并安装 claude-code
  • -g 参数代表“全局安装”,确保 claude 命令可以在系统的任何路径下被调用。

安装完成后,输入 claude 并回车,若显示 Claude Code 的欢迎界面,则表示安装成功。

3. 第二步:安装 cc-switch 模型管理工具

cc-switch 是一个图形化桌面应用,其核心功能是帮助用户管理并切换 Claude Code 所使用的后端 AI 模型。

请前往 cc-switch 的 GitHub 发布页面下载安装包:

根据所用操作系统 (Windows, macOS) 下载对应的安装文件,并按常规流程完成安装。

在这里插入图片描述

Windows用户
从 Releases 页面下载最新的 CC-Switch-v{version}-Windows.msi 安装程序或 CC-Switch-v{version}-Windows-Portable.zip 可移植版本。

masos用户

brew tap farion1231/ccswitch brew install --cask cc-switch
brew upgrade --cask cc-switch

或者 下载 CC-Switch-v{version}-macOS.zip

Linux 用户
从 Releases 页面下载最新的 CC-Switch-v{version}-Linux.deb 软件包或 CC-Switch-v{version}-Linux.AppImage

4. 第三步:获取 AI 模型的 API Key
API Key 是访问 AI 服务的凭证

API Key 是一串由 AI 服务提供商生成的唯一字符串,用于验证请求者的身份并进行计费。

以 Kimi (Moonshot) 为例,获取 API Key

配置 cc-switch 需要三项核心信息:

项目说明示例
供应商名称自定义名称,用于在 cc-switch 中识别。Kimi Moonshot
官网地址AI 服务商提供的 API 服务器地址 (Endpoint)。https://api.moonshot.cn
API Key专属访问密钥。sk-xxxxxxxxxxxxxxxxxxxx

获取步骤如下:

  1. 访问官网并注册:前往 月之暗面开放平台 并完成账户注册。
  2. 定位到 API 密钥页面:登录后,在左侧菜单栏选择 “API 密钥管理”。
  3. 创建新的 API Key:点击“+ 创建新的 Key”。系统将生成一个 Key。请立即复制并保存在安全的位置,该 Key 的完整内容只会在创建时显示一次。
5. 第四步:在 cc-switch 中配置 AI 模型

此步骤将获取到的 Kimi API 信息录入 cc-switch

  1. 打开 cc-switch 应用
  2. 点击 “添加供应商” 按钮
  3. 在弹出的窗口中,依次填入信息
    • 供应商名称:填入自定义的名称,例如 Kimi Moonshot
    • 官网地址:填入 Kimi 的 API 地址 https://api.moonshot.cn
    • API Key:粘贴已复制的密钥。
  4. 点击 “添加”

完成后,此 Kimi 配置将显示在 cc-switch 的供应商列表中。

6. 第五步:激活配置并进行验证

配置完成后,需将其激活,以使 Claude Code 工具生效。

  1. cc-switch 列表中,选中刚添加的 Kimi Moonshot 配置。
  2. 点击 “切换” 按钮。

当界面状态显示“已切换到 Kimi Moonshot”时,cc-switch 已成功修改 Claude Code 的底层配置文件。这个配置文件位于用户主目录下的 .claude/settings.json,其内容已被更新为 Kimi 的 API 地址和 Key。

7. 第六步:在实际项目中使用

所有配置已完成,现在可以在开发工作流中调用 AI。

在该文件夹内启动 Claude Code

claude 

使用终端进入目标项目文件夹。例如:

cd path/to/your/project 
8. 注意事项:理解并应对 API 频率限制

在使用 API 服务时,可能会遇到速率限制 (Rate Limit),这是一种常见的服务保护机制。

速率限制的机制

服务商会根据账户等级,对单位时间内的请求次数 (RPM)、Token 处理量 (TPM) 等指标进行限制。以 Kimi (Moonshot AI) 为例,其速率限制与账户累计充值金额挂钩:

用户等级累计充值金额并发RPM (每分钟请求数)TPM (每分钟Token数)TPD (每天Token数)
Free¥ 01332,0001,500,000
Tier1¥ 5050200128,00010,000,000
Tier2¥ 100100500128,00020,000,000

Read more

AI 自动化测试:接口测试全流程自动化的实现方法

AI 自动化测试:接口测试全流程自动化的实现方法

在 AI 技术飞速渗透各行各业的当下,我们早已告别 “谈 AI 色变” 的观望阶段,迈入 “用 AI 提效” 的实战时代 💡。无论是代码编写时的智能辅助 💻、数据处理中的自动化流程 📊,还是行业场景里的精准解决方案 ,AI 正以润物细无声的方式,重构着我们的工作逻辑与行业生态 🌱。曾几何时,我们需要花费数小时查阅文档 📚、反复调试代码 ⚙️,或是在海量数据中手动筛选关键信息 ,而如今,一个智能工具 🧰、一次模型调用 ⚡,就能将这些繁琐工作的效率提升数倍 📈。正是在这样的变革中,AI 相关技术与工具逐渐走进我们的工作场景,成为破解效率瓶颈、推动创新的关键力量 。今天,我想结合自身实战经验,带你深入探索 AI 技术如何打破传统工作壁垒 🧱,让 AI 真正从 “概念” 变为 “实用工具” ,为你的工作与行业发展注入新动能 ✨。 文章目录 * AI 自动化测试:接口测试全流程自动化的实现方法 🤖 * 为什么传统自动化测试“卡壳”

医疗大模型LoRA微调实战:我用40行代码让AI学会看病

医疗大模型LoRA微调实战:我用40行代码让AI学会看病

目录 🎯 摘要 一、技术原理:为什么LoRA是医疗AI的救命稻草? 1.1 架构设计理念:别动基座,只加"外挂" 1.2 核心算法实现:矩阵拆解的魔法 1.3 性能特性分析:数据不说谎 二、实战部分:手把手教你训一个医学问答助手 2.1 完整可运行代码示例 2.2 分步骤实现指南 🚀 步骤1:环境搭建(10分钟搞定) 📊 步骤2:数据准备(最关键的环节) ⚙️ 步骤3:训练调参(避开我踩过的坑) 🧪 步骤4:评估验证(别只看准确率) 2.3 常见问题解决方案 ❌ 问题1:模型胡说八道(医学事实错误) ❌ 问题2:训练不收敛(

英伟达GTC 2026大会开幕:AI智能体时代正式到来,黄仁勋发布新一代推理芯片与Rubin架构

英伟达GTC 2026大会开幕:AI智能体时代正式到来,黄仁勋发布新一代推理芯片与Rubin架构

导读:北京时间3月16日,全球AI行业的目光聚焦圣何塞。英伟达创始人黄仁勋在GTC 2026大会主题演讲中,正式宣告AI产业从“造模型”迈入“用模型”的新纪元,发布了新一代推理芯片与Rubin架构,并推出对标OpenAI的AI智能体平台。这场科技盛宴不仅揭示了未来三年的技术方向,更将直接影响千行百业的数字化转型进程。 核心新闻摘要 时间:2026年3月16日(北京时间) 事件:英伟达GTC 2026大会在加州圣何塞正式开幕,黄仁勋发表了长达两小时的主题演讲。 核心发布: * 新一代推理芯片:性能较上一代提升50%,功耗降低30%,专门针对AI智能体、大规模推理场景优化。同时推出了更便宜的入门级AI芯片,旨在降低中小企业使用AI的门槛。 * Rubin架构GPU(R100/R200系列):基于3nm工艺与HBM4内存,性能实现代际跃升,聚焦AI工厂与物理AI应用。 * AI智能体平台:对标OpenAI,支持工业制造、办公文档、智能家居等多场景的自主任务执行,能够自主学习用户习惯,优化交互体验。 * 开源大模型圆桌讨论:黄仁勋亲自主持,邀请Perplexity创始人Ar

AI 原生架构:鸿蒙App的下一代形态

AI 原生架构:鸿蒙App的下一代形态

子玥酱(掘金 / 知乎 / ZEEKLOG / 简书 同名) 大家好,我是子玥酱,一名长期深耕在一线的前端程序媛 👩‍💻。曾就职于多家知名互联网大厂,目前在某国企负责前端软件研发相关工作,主要聚焦于业务型系统的工程化建设与长期维护。 我持续输出和沉淀前端领域的实战经验,日常关注并分享的技术方向包括前端工程化、小程序、React / RN、Flutter、跨端方案, 在复杂业务落地、组件抽象、性能优化以及多端协作方面积累了大量真实项目经验。 技术方向:前端 / 跨端 / 小程序 / 移动端工程化 内容平台:掘金、知乎、ZEEKLOG、简书 创作特点:实战导向、源码拆解、少空谈多落地 文章状态:长期稳定更新,大量原创输出 我的内容主要围绕 前端技术实战、真实业务踩坑总结、框架与方案选型思考、行业趋势解读 展开。文章不会停留在“API 怎么用”,而是更关注为什么这么设计、在什么场景下容易踩坑、