手把手教你安装 Claude Code:终端里的 AI 编程助手,比 Copilot 更强

手把手教你安装 Claude Code:终端里的 AI 编程助手,比 Copilot 更强

最近在用一个叫 Claude Code 的工具,Anthropic 出的,直接在终端里跟 AI 结对编程。跟 GitHub Copilot 不一样,它不是补全代码,而是真的能理解你的整个项目,帮你写功能、改 bug、做重构。

用了两周,说说安装过程和踩过的坑。

环境要求

→ Node.js 18.0 以上(推荐最新 LTS)
→ 系统:macOS、Linux、Windows(需要 WSL)

安装步骤

第一步:装 Node.js

Ubuntu / Debian:

curl -fsSL https://deb.nodesource.com/setup_lts.x |sudobash - sudoapt-getinstall -y nodejs node --version 

macOS:

brew installnodenode --version 

没装 Homebrew 的先装一下:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

第二步:装 Claude Code

npminstall -g @anthropic-ai/claude-code claude --version 

第三步:配置 API

Claude Code 需要两个环境变量:

配置项说明
ANTHROPIC_AUTH_TOKENAPI 密钥,sk- 开头
ANTHROPIC_BASE_URLAPI 地址

这里有个省钱技巧:不用直接对接 Anthropic 官方 API(贵),用 API 聚合服务可以便宜 40-50%。我用的是 Crazyrouter(crazyrouter.com),一个 key 就能调用 Claude 全系列模型。

Linux / macOS 设置:

cd 你的项目目录 exportANTHROPIC_AUTH_TOKEN=sk-你的token exportANTHROPIC_BASE_URL=https://crazyrouter.com/ exportAPI_TIMEOUT_MS=300000 claude 

Windows PowerShell:

cd 你的项目目录 $env:ANTHROPIC_BASE_URL = "https://crazyrouter.com/"$env:ANTHROPIC_AUTH_TOKEN = "sk-你的token"$env:API_TIMEOUT_MS = "300000" claude 

Windows CMD:

cd 你的项目目录 set ANTHROPIC_BASE_URL=https://crazyrouter.com/ set ANTHROPIC_AUTH_TOKEN=sk-你的token set API_TIMEOUT_MS=300000 claude 

第四步:首次启动配置

启动后会有几个配置步骤:

  1. 选主题 → 选你喜欢的,回车
  2. 安全提示 → 确认,回车
  3. 终端配置 → 默认就行,回车
  4. 信任工作目录 → 确认,回车

搞定,可以开始用了。

常见问题

报错 “Invalid API Key · Please run /login”
→ 环境变量没设对,检查 ANTHROPIC_AUTH_TOKEN 和 ANTHROPIC_BASE_URL
→ 如果是写在配置文件里的,重启终端再试

显示 “offline” 状态
→ Claude Code 会检测 Google 连通性,连不上就显示 offline
→ 不影响正常使用,忽略就行

请求一直 “fetch failed”
→ 网络问题,检查代理设置
→ 退出(Ctrl+C)重新运行 claude

API 报错
→ 可能是转发服务不稳定,退出重试
→ 持续报错的话等一会再试

使用体验

跟 Copilot 最大的区别是,Claude Code 能理解整个项目上下文。你可以跟它说"帮我把这个模块重构成 TypeScript",它会读完所有相关文件然后一次性改好。

而且因为是终端工具,跟 git 配合特别好。改完代码直接让它帮你写 commit message,甚至可以让它自己 commit。

配合 Crazyrouter 使用的话,API 费用大概是官方的 55%,对于重度用户来说一个月能省不少。

相关链接

→ Claude Code 官方文档:https://docs.anthropic.com
→ Node.js 官网:https://nodejs.org
→ Crazyrouter(API 聚合,省钱):https://crazyrouter.com?ref=ZEEKLOG


如果这篇文章对你有帮助,点个赞收藏一下。有问题评论区交流。

Read more

【Copilot配置】—— copilot-instructions.md vs AGENTS.md vs .instructions.md三种指令文件解析与配置

【Copilot配置】—— copilot-instructions.md vs AGENTS.md vs .instructions.md三种指令文件解析与配置

Copilot 指令文件全解析:copilot-instructions.md vs AGENTS.md vs .instructions.md 作为常年和 VS Code 打交道的研发,最近在折腾 Copilot Agent 时,我发现很多同学和我一样,被 .github/copilot-instructions.md、AGENTS.md 和 .instructions.md 这三个文件绕晕了。 明明都是给 Copilot 写的 “指令”,为什么要分三个文件?它们的生效范围有啥区别?什么时候该用哪一个? 带着这些疑问,我翻遍了官方文档,又在自己的 AI Agent 项目里反复实测,终于把这三者的关系理得清清楚楚。这篇文章就用最直白的语言,结合实战配置,帮你彻底搞懂 Copilot 指令文件的使用逻辑。 一、先搞懂核心:

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天)

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天)

Windows 11 配置 CUDA 版 llama.cpp 并实现系统全局调用(GGUF 模型本地快速聊天) 前言 在本地快速部署大模型进行离线聊天,llama.cpp 是轻量化、高性能的首选工具,尤其是 CUDA 版本能充分利用 NVIDIA 显卡的算力,大幅提升模型推理速度。本文将详细记录在 Windows 11 系统中,从环境准备、CUDA 版 llama.cpp 配置,到实现系统全局调用、快速运行 GGUF 格式模型的完整步骤,全程基于实际操作验证,适配 RTX 3090 等 NVIDIA 显卡,新手也能轻松上手。 https://github.com/ggml-org/llama.cpp

RTX 4090 加速国产 AIGC 视频生成:腾讯混元与阿里千问开源模型

RTX 4090 加速国产 AIGC 视频生成:腾讯混元与阿里千问开源模型

国产AIGC视频大模型正加速落地,RTX 4090凭借强大算力与大显存,成为本地部署腾讯混元、阿里通义万相等前沿视频生成模型的最佳选择,开启桌面级AI创作新时代。 目录 * 一、引言:国产AIGC视频大模型,桌面算力的新疆域 * 二、解锁潜能:RTX 4090与国产视频大模型的协同优势 * 三、项目解析:国产AIGC视频模型的创新之路 * 四、部署与环境搭建:国产模型的本地化实践 * 4.1 基础环境准备 * 4.2 模型部署流程:腾讯混元与阿里通义万相的本地化实战 * 4.3 ComfyUI 集成与优化 * 五、性能测试与对比:RTX 4090 的硬核实力 * 5.1 生成速度实测 (fps / s/frame) * 5.2 显存消耗与优化策略 * 六、实际应用场景:国产模型赋能创意工作流 * 七、

开源模型应用落地-qwen2.5-7b-instruct-LoRA微调-LLaMA-Factory-单机单卡-V100(十八)

开源模型应用落地-qwen2.5-7b-instruct-LoRA微调-LLaMA-Factory-单机单卡-V100(十八)

一、前言     本篇文章将使用LLaMA-Factory去高效微调(命令和界面方式)QWen2.5系列模型,通过阅读本文,您将能够更好地掌握这些关键技术,理解其中的关键技术要点,并应用于自己的项目中。     QWen2系列模型微调: 开源模型应用落地-qwen2-7b-instruct-LoRA微调-LLaMA-Factory-单机单卡-V100(八)https://charles.blog.ZEEKLOG.net/article/details/141391066 二、术语介绍 2.1. LoRA微调   &nb