Claude Code + cc-switch 配置指南

本指南旨在引导初次接触的用户,一步步完成 Claude Code 命令行工具 (CLI) 和 cc-switch 的安装与配置。完成配置后,用户即可在代码编辑器的终端中,通过简单的命令,调用 Kimi、GPT-4 或其他主流 AI 模型,辅助完成代码编写、解释和调试等任务。

核心结论Claude Codecc-switch 结合使用,可以显著提升编程工作的效率。

目录
  • 1. 准备工作:配置必需的 Node.js 环境
  • 2. 第一步:安装 Claude Code 命令行工具
  • 3. 第二步:安装 cc-switch 模型管理工具
  • 4. 第三步:获取 AI 模型的 API Key
  • 5. 第四步:在 cc-switch 中配置 AI 模型
  • 6. 第五步:激活配置并进行验证
  • 7. 第六步:在实际项目中使用
  • 8. 注意事项:理解并应对 API 频率限制

1. 准备工作:配置必需的 Node.js 环境

Claude Code CLI 是一个基于 Node.js 的工具,其成功安装和运行严格依赖于系统中的 Node.js 版本。

为什么必须使用较新版本的 Node.js?

Claude Code 的开发者在其包配置中明确指定了所支持的 Node.js 最低版本。如果使用低于要求的版本进行安装,包管理器 (npm) 会无法正确处理依赖关系,并抛出一系列警告,最终导致安装失败或即使安装完成也无法运行。

例如,在 Node.js v14 的环境中尝试安装,会收到如下错误日志:

npm WARN notsup Unsupported engine for @anthropic-ai/[email protected]: wanted: {"node":">=18.0.0"}(current: {"node":"14.18.3","npm":"6.14.15"})npm WARN notsup Not compatible with your version of node/npm: @anthropic-ai/[email protected] 

这行日志清晰地指出:claude-code要求 (wanted) Node.js 版本大于等于 18.0.0,但当前环境 (current) 的版本是 14.18.3,因此不兼容。忽略这些警告将导致后续使用时出现问题。

检查并安装正确的 Node.js 版本
  1. 确认版本要求:请确保输出的版本号为 v18.0.0 或更高
  2. 安装与管理 (推荐使用 nvm)如果版本不符,强烈建议使用 nvm (Node Version Manager) 来进行安装和版本管理。nvm 可以在同一台电脑上维护多个 Node.js 版本并轻松切换。完成切换后,再次运行 node -v 进行确认。
    • 安装 nvm
      • macOS / Linux: 参考 nvm-sh/nvm GitHub 官方指南。
      • Windows: 使用 nvm-windows(适配Windows的nvm版本),具体步骤如下(Node.js自带npm包管理器,旧版本Node/npm会与nvm管理的版本冲突,需先彻底清理):
        1. 备份npm自定义配置(可选):按 Win + R 输入 %AppData%\npm 打开文件夹,若存在 etc\npmrc 文件,复制到桌面备份;无该文件则直接跳过。
        2. 卸载旧版Node.js:打开「控制面板」→「程序和功能」,找到所有名称包含「Node.js」的程序,右键选择「卸载」并按提示完成。
        3. 删除Node/npm残留文件夹
          • Win + R 输入 C:\Program Files\nodejs(或 C:\Program Files (x86)\nodejs),若文件夹存在则删除;
          • 再次按 Win + R 分别输入 %AppData%\npm%AppData%\npm-cache,若文件夹存在则删除。
        4. 下载nvm-windows 1.2.2安装包:打开 nvm-windows 1.2.2 发布页,下拉到「Assets」(资源)区域,点击 nvm-setup.exe 下载(新手推荐此一键安装包)。
        5. 安装nvm-windows
          • 找到下载的 nvm-setup.exe 双击打开,弹出「用户账户控制」时点击「是」;
          • 勾选「I accept the agreement」→ 点击「Next」;
          • 保留默认安装路径(如 C:\Users\你的用户名\AppData\Roaming\nvm)→ 点击「Next」;
          • 保留Node.js符号链接默认路径(C:\Program Files\nodejs)→ 点击「Next」;
          • 点击「Install」开始安装,进度条完成后点击「Finish」。
        6. 验证安装成功:以管理员身份打开CMD/PowerShell,输入 nvm version,若输出 1.2.2 则安装成功。

使用 nvm 安装并切换到 Node.js 18

# 安装 Node.js v18 的最新稳定版 nvm install18# 将当前会话的 Node.js 版本切换为 v18 nvm use 18

检查当前版本:打开终端(在 Windows 上是 CMDPowerShell,在 Mac 上是 Terminal),输入以下命令:

node -v 
2. 第一步:安装 Claude Code 命令行工具

Claude Code 是一个命令行界面 (CLI) 工具,用于在终端内与 AI 进行交互。

在终端中运行以下命令进行安装:

npminstall -g @anthropic-ai/claude-code 
  • npm 是 Node.js 的包管理器,该命令将从 npm 仓库下载并安装 claude-code
  • -g 参数代表“全局安装”,确保 claude 命令可以在系统的任何路径下被调用。

安装完成后,输入 claude 并回车,若显示 Claude Code 的欢迎界面,则表示安装成功。

3. 第二步:安装 cc-switch 模型管理工具

cc-switch 是一个图形化桌面应用,其核心功能是帮助用户管理并切换 Claude Code 所使用的后端 AI 模型。

请前往 cc-switch 的 GitHub 发布页面下载安装包:

根据所用操作系统 (Windows, macOS) 下载对应的安装文件,并按常规流程完成安装。

在这里插入图片描述

Windows用户
从 Releases 页面下载最新的 CC-Switch-v{version}-Windows.msi 安装程序或 CC-Switch-v{version}-Windows-Portable.zip 可移植版本。

masos用户

brew tap farion1231/ccswitch brew install --cask cc-switch
brew upgrade --cask cc-switch

或者 下载 CC-Switch-v{version}-macOS.zip

Linux 用户
从 Releases 页面下载最新的 CC-Switch-v{version}-Linux.deb 软件包或 CC-Switch-v{version}-Linux.AppImage

4. 第三步:获取 AI 模型的 API Key
API Key 是访问 AI 服务的凭证

API Key 是一串由 AI 服务提供商生成的唯一字符串,用于验证请求者的身份并进行计费。

以 Kimi (Moonshot) 为例,获取 API Key

配置 cc-switch 需要三项核心信息:

项目说明示例
供应商名称自定义名称,用于在 cc-switch 中识别。Kimi Moonshot
官网地址AI 服务商提供的 API 服务器地址 (Endpoint)。https://api.moonshot.cn
API Key专属访问密钥。sk-xxxxxxxxxxxxxxxxxxxx

获取步骤如下:

  1. 访问官网并注册:前往 月之暗面开放平台 并完成账户注册。
  2. 定位到 API 密钥页面:登录后,在左侧菜单栏选择 “API 密钥管理”。
  3. 创建新的 API Key:点击“+ 创建新的 Key”。系统将生成一个 Key。请立即复制并保存在安全的位置,该 Key 的完整内容只会在创建时显示一次。
5. 第四步:在 cc-switch 中配置 AI 模型

此步骤将获取到的 Kimi API 信息录入 cc-switch

  1. 打开 cc-switch 应用
  2. 点击 “添加供应商” 按钮
  3. 在弹出的窗口中,依次填入信息
    • 供应商名称:填入自定义的名称,例如 Kimi Moonshot
    • 官网地址:填入 Kimi 的 API 地址 https://api.moonshot.cn
    • API Key:粘贴已复制的密钥。
  4. 点击 “添加”

完成后,此 Kimi 配置将显示在 cc-switch 的供应商列表中。

6. 第五步:激活配置并进行验证

配置完成后,需将其激活,以使 Claude Code 工具生效。

  1. cc-switch 列表中,选中刚添加的 Kimi Moonshot 配置。
  2. 点击 “切换” 按钮。

当界面状态显示“已切换到 Kimi Moonshot”时,cc-switch 已成功修改 Claude Code 的底层配置文件。这个配置文件位于用户主目录下的 .claude/settings.json,其内容已被更新为 Kimi 的 API 地址和 Key。

7. 第六步:在实际项目中使用

所有配置已完成,现在可以在开发工作流中调用 AI。

在该文件夹内启动 Claude Code

claude 

使用终端进入目标项目文件夹。例如:

cd path/to/your/project 
8. 注意事项:理解并应对 API 频率限制

在使用 API 服务时,可能会遇到速率限制 (Rate Limit),这是一种常见的服务保护机制。

速率限制的机制

服务商会根据账户等级,对单位时间内的请求次数 (RPM)、Token 处理量 (TPM) 等指标进行限制。以 Kimi (Moonshot AI) 为例,其速率限制与账户累计充值金额挂钩:

用户等级累计充值金额并发RPM (每分钟请求数)TPM (每分钟Token数)TPD (每天Token数)
Free¥ 01332,0001,500,000
Tier1¥ 5050200128,00010,000,000
Tier2¥ 100100500128,00020,000,000

Read more

【Cursor 和 Copilot 对比分析】

【Cursor 和 Copilot 对比分析】

Cursor 和 Copilot 对比分析 引言 在人工智能技术快速发展的 2025 年,AI 编程工具正深刻改变着软件开发的工作方式。作为这一领域的两大代表性产品,Cursor和GitHub Copilot分别代表了两种截然不同的技术路线:Cursor 作为AI 原生 IDE,从底层重新定义了开发体验;而 GitHub Copilot 则以插件化集成的方式,在不改变传统开发习惯的前提下提供 AI 辅助。 根据最新市场数据,GitHub Copilot 占据了 **41.9%** 的市场份额,拥有超过 1500 万用户,年收入达到 20 亿美元。与此同时,Cursor 在短短两年内实现了从 0 到 5 亿美元年收入的突破,付费用户超 36 万,其母公司 Anysphere

AI安全:视觉提示词注入攻击代码/实战教学| 针对Hugging Face开源大模型Stable Diffusion Model

AI安全:视觉提示词注入攻击代码/实战教学| 针对Hugging Face开源大模型Stable Diffusion Model

提到提示词注入(Prompt Injection),大家的第一反应往往是精心构造的文本越狱指令。 而在图生图任务中,输入图像在本质上扮演了视觉提示词的角色,与文本指令共同指导生成模型。 基于这一视角,本文展示针对视觉提示词的注入攻击:通过PGD对抗攻击算法对输入图像进行像素级微调,使其生成的违规图像能够绕过开源大模型的NSFW安全检测机制。 临近毕业,感觉市场对提示词注入比较感兴趣,因本人读博期间一直研究对抗攻击算法,所以决定尝试用对抗攻击的思路完成提示词注入攻击,误导开源模型生成违规图像。 完整代码链接:https://github.com/YujiangLi0v0/Injection_Attack_Inpainting.git 目录 * 一、 NSFW防线:开源模型的安全过滤机制 * 二、 攻击场景定义 (Threat Model) * 三、 环境搭建 * 四、 核心攻击流程详解 * 4.1. 固定随机因子 * 4.2 数据预处理 * 4.3. 攻击部分 * 4.3.1 重写扩散模型推理过程

怎么查AI重复率?4步轻松搞定+ AIGC检测工具实测指南

怎么查AI重复率?4步轻松搞定+ AIGC检测工具实测指南

当ChatGPT、Claude等AI工具成为学术写作的辅助手段时,一个新的问题开始困扰学生和研究者:如何确认自己的论文中AI生成内容的占比?AI重复率(又称AIGC率)的检测不仅关系到学术诚信,更可能影响论文的最终通过。很多人尝试用常规查重工具,但发现它们无法精准识别AI生成的文本——要么误判原创内容,要么漏掉AI生成的段落。这时候,选择一款专门针对AIGC率查询的工具就变得至关重要。PaperPass作为深耕学术查重领域近20年的平台,其最新升级的AIGC检测功能正好解决了这一痛点,帮助用户快速、准确地识别论文中的AI生成内容。 什么是AI重复率(AIGC率)? AI重复率并非传统意义上的文本复制比,而是指论文中由人工智能生成的内容占总字数的比例。随着AIGC技术的普及,学术机构越来越关注AI工具的合理使用边界。《2026年全球学术诚信报告》显示,超过62%的高校已将AI生成内容的未标注列为学术不端行为。但AI生成的文本往往没有明显的“复制痕迹”,常规查重工具依赖的字词匹配算法对此束手无策。这就像用普通X光片无法诊断深层组织病变一样,需要更精准的“医学影像技术”来识别AI生成的

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合 在本地跑一个大模型,第一步不是写代码、调参数,而是——等它下载完。 这听起来有点荒诞,却是许多中国开发者的真实日常。当你兴致勃勃地打开终端,输入 ollama run llama3:8b,满心期待地准备开启微调之旅时,现实却给你泼了一盆冷水:进度条纹丝不动,网络连接频繁中断,几个小时过去连基础权重都没拉下来。 问题出在哪?根源就在于——Ollama 默认从 HuggingFace 官方仓库拉取模型,而这个服务器远在海外。对于国内用户来说,这无异于“越洋取经”,不仅速度慢如龟爬,还常因网络波动导致失败重试,白白浪费时间和算力资源。 但其实,我们完全不必硬扛这条路。真正聪明的做法是:绕开公网瓶颈,借助国内镜像高速获取模型 + 使用 LLama-Factory 实现低门槛、高效率的本地微调。这套组合拳不仅能让你把“等待下载”的时间省下来喝杯咖啡,还能让7B甚至13B级别的模型在一张消费级显卡上顺利训练起来。 镜像加速:别再用裸连 HuggingFace