手把手教你安装 Claude Code:终端里的 AI 编程助手,比 Copilot 更强

手把手教你安装 Claude Code:终端里的 AI 编程助手,比 Copilot 更强

最近在用一个叫 Claude Code 的工具,Anthropic 出的,直接在终端里跟 AI 结对编程。跟 GitHub Copilot 不一样,它不是补全代码,而是真的能理解你的整个项目,帮你写功能、改 bug、做重构。

用了两周,说说安装过程和踩过的坑。

环境要求

→ Node.js 18.0 以上(推荐最新 LTS)
→ 系统:macOS、Linux、Windows(需要 WSL)

安装步骤

第一步:装 Node.js

Ubuntu / Debian:

curl -fsSL https://deb.nodesource.com/setup_lts.x |sudobash - sudoapt-getinstall -y nodejs node --version 

macOS:

brew installnodenode --version 

没装 Homebrew 的先装一下:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

第二步:装 Claude Code

npminstall -g @anthropic-ai/claude-code claude --version 

第三步:配置 API

Claude Code 需要两个环境变量:

配置项说明
ANTHROPIC_AUTH_TOKENAPI 密钥,sk- 开头
ANTHROPIC_BASE_URLAPI 地址

这里有个省钱技巧:不用直接对接 Anthropic 官方 API(贵),用 API 聚合服务可以便宜 40-50%。我用的是 Crazyrouter(crazyrouter.com),一个 key 就能调用 Claude 全系列模型。

Linux / macOS 设置:

cd 你的项目目录 exportANTHROPIC_AUTH_TOKEN=sk-你的token exportANTHROPIC_BASE_URL=https://crazyrouter.com/ exportAPI_TIMEOUT_MS=300000 claude 

Windows PowerShell:

cd 你的项目目录 $env:ANTHROPIC_BASE_URL = "https://crazyrouter.com/"$env:ANTHROPIC_AUTH_TOKEN = "sk-你的token"$env:API_TIMEOUT_MS = "300000" claude 

Windows CMD:

cd 你的项目目录 set ANTHROPIC_BASE_URL=https://crazyrouter.com/ set ANTHROPIC_AUTH_TOKEN=sk-你的token set API_TIMEOUT_MS=300000 claude 

第四步:首次启动配置

启动后会有几个配置步骤:

  1. 选主题 → 选你喜欢的,回车
  2. 安全提示 → 确认,回车
  3. 终端配置 → 默认就行,回车
  4. 信任工作目录 → 确认,回车

搞定,可以开始用了。

常见问题

报错 “Invalid API Key · Please run /login”
→ 环境变量没设对,检查 ANTHROPIC_AUTH_TOKEN 和 ANTHROPIC_BASE_URL
→ 如果是写在配置文件里的,重启终端再试

显示 “offline” 状态
→ Claude Code 会检测 Google 连通性,连不上就显示 offline
→ 不影响正常使用,忽略就行

请求一直 “fetch failed”
→ 网络问题,检查代理设置
→ 退出(Ctrl+C)重新运行 claude

API 报错
→ 可能是转发服务不稳定,退出重试
→ 持续报错的话等一会再试

使用体验

跟 Copilot 最大的区别是,Claude Code 能理解整个项目上下文。你可以跟它说"帮我把这个模块重构成 TypeScript",它会读完所有相关文件然后一次性改好。

而且因为是终端工具,跟 git 配合特别好。改完代码直接让它帮你写 commit message,甚至可以让它自己 commit。

配合 Crazyrouter 使用的话,API 费用大概是官方的 55%,对于重度用户来说一个月能省不少。

相关链接

→ Claude Code 官方文档:https://docs.anthropic.com
→ Node.js 官网:https://nodejs.org
→ Crazyrouter(API 聚合,省钱):https://crazyrouter.com?ref=ZEEKLOG


如果这篇文章对你有帮助,点个赞收藏一下。有问题评论区交流。

Read more

如何用LLama-Factory快速微调Qwen、Baichuan、ChatGLM?完整教程来了

如何用 LLama-Factory 快速微调 Qwen、Baichuan、ChatGLM? 在大模型落地的浪潮中,一个现实问题始终困扰着开发者:通用模型虽然强大,但在专业场景下却常常“答非所问”。比如让通义千问解释金融术语“商誉减值”,它可能给出教科书式的定义,却无法结合年报上下文分析其对企业利润的影响。这种差距正是领域适配能力的体现——而解决之道,就在微调。 但传统微调像一场硬仗:你需要写繁琐的数据处理脚本、配置复杂的训练参数、应对动辄上百GB的显存需求。更麻烦的是,不同模型结构各异,为 Qwen 写的训练代码,换到 Baichuan 上几乎要重来一遍。这道高墙把许多团队挡在了门外。 直到像 LLama-Factory 这样的集成化框架出现。它不只简化流程,而是重新定义了微调体验——你不再需要成为 PyTorch 专家,也能在几小时内完成一次高质量的模型定制。 这个开源项目名字里有“LLama”,实则野心更大:支持超过100种主流大模型架构,从 Meta 的 LLaMA 系列,到国产的

By Ne0inhk
【2025实测】10大AI模型API中转/聚合平台横评:一键集成GPT/Claude/文心一言,拒绝重复造轮子

【2025实测】10大AI模型API中转/聚合平台横评:一键集成GPT/Claude/文心一言,拒绝重复造轮子

当你需要同时调用GPT-4、Claude 3和文心一言时,是否还在为每个平台分别调试接口?2025年的AI开发,正在经历从“单个模型调用”到“多模型智能调度”的范式转变。 随着AI模型生态的日益繁荣,开发者面临的挑战不再是“没有选择”,而是“选择太多”。不同的API接口、各异的认证方式、分散的计费体系和波动的服务可用性,让原本聚焦业务创新的团队疲于应付基础设施的复杂性。 2025年的AI模型API中转平台正在成为解决这一痛点的关键基础设施。这些平台通过统一的接口协议、智能的路由策略和聚合的管理能力,让开发者可以像使用本地服务一样调用全球领先的AI能力。 01 2025年度十大API中转平台全景对比 本次横评基于2025年第一季度实际测试数据,从模型覆盖广度、接口统一程度、稳定可用性、成本效益和开发者体验五个核心维度,对主流API中转平台进行了系统评估。 平台名称核心功能与定位支持模型覆盖2025实测关键表现适用场景综合推荐指数PoloAPI统一接入层与智能调度中心GPT全系列、Claude、Gemini、文心一言、通义千问等20+接口响应延迟稳定在150ms内;智能路由

By Ne0inhk
国内Sora-2 API接入实测:小镜AIGC平台技术评测与性价比分析

国内Sora-2 API接入实测:小镜AIGC平台技术评测与性价比分析

摘要:本文基于2025年10月实测数据,对国内AI模型接入平台的技术表现进行评估。随着Sora-2等先进AI模型API的开放,开发者和企业面临接入成本高、稳定性要求高的双重挑战。本文将从定价策略、失败处理机制、并发能力等多个维度,客观分析小镜AIGC开放平台的服务表现。 1. 国内AI模型接入现状 当前,国内开发者接入国际先进AI模型面临多重挑战: * 直接接入壁垒高:国际主流AI服务商对国内用户存在注册限制、网络访问障碍 * 成本控制困难:官方API按量计费模式对中小规模应用不友好 * 技术集成复杂:需要处理网络优化、错误重试、负载均衡等技术细节 在此背景下,专业的API中转服务平台成为许多开发团队的务实选择。 2. 平台概况:小镜AIGC开放平台 小镜AIGC开放平台(https://aigc.x-see.cn/)提供多模型统一接入服务,支持包括Sora-2、Claude、Gemini-3等主流AI模型。平台定位为技术中立方,专注于提供稳定、高效的API转发服务。 3. 核心技术指标实测分析 3.1 定价与计费模型分析 这是小镜API最引人注目的特点。

By Ne0inhk

为什么LLaMA和GPT-4都在用RMSNorm?深入解析轻量归一化的三大优势

为什么LLaMA和GPT-4都在用RMSNorm?深入解析轻量归一化的三大优势 在构建千亿参数大模型时,工程师们常常面临一个看似微小却影响深远的选择:如何设计归一化层?这个决策会直接影响模型的训练效率、显存占用和最终性能。当Meta推出LLaMA系列模型时,一个名为RMSNorm的轻量级归一化方案悄然成为标配;而OpenAI的GPT-4同样采用了这一技术。这不禁让人思考:为什么这些顶尖模型都不约而同地选择了RMSNorm? 1. 从LayerNorm到RMSNorm:归一化技术的进化 深度神经网络中的归一化技术经历了多次迭代。Batch Normalization(BN)在CNN时代大放异彩,但在处理变长序列时面临挑战。LayerNorm(LN)的提出解决了这一问题,成为Transformer架构的标准配置。然而,随着模型规模突破千亿参数,LN的计算开销变得不容忽视。 RMSNorm的核心创新在于其数学简洁性。与LN需要计算均值(μ)和标准差(σ)不同,RMSNorm仅计算输入的均方根(RMS): # LayerNorm计算公式 mean = x.mean(dim=-1,

By Ne0inhk