手把手教你安装 Claude Code:终端里的 AI 编程助手,比 Copilot 更强

手把手教你安装 Claude Code:终端里的 AI 编程助手,比 Copilot 更强

最近在用一个叫 Claude Code 的工具,Anthropic 出的,直接在终端里跟 AI 结对编程。跟 GitHub Copilot 不一样,它不是补全代码,而是真的能理解你的整个项目,帮你写功能、改 bug、做重构。

用了两周,说说安装过程和踩过的坑。

环境要求

→ Node.js 18.0 以上(推荐最新 LTS)
→ 系统:macOS、Linux、Windows(需要 WSL)

安装步骤

第一步:装 Node.js

Ubuntu / Debian:

curl -fsSL https://deb.nodesource.com/setup_lts.x |sudobash - sudoapt-getinstall -y nodejs node --version 

macOS:

brew installnodenode --version 

没装 Homebrew 的先装一下:

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

第二步:装 Claude Code

npminstall -g @anthropic-ai/claude-code claude --version 

第三步:配置 API

Claude Code 需要两个环境变量:

配置项说明
ANTHROPIC_AUTH_TOKENAPI 密钥,sk- 开头
ANTHROPIC_BASE_URLAPI 地址

这里有个省钱技巧:不用直接对接 Anthropic 官方 API(贵),用 API 聚合服务可以便宜 40-50%。我用的是 Crazyrouter(crazyrouter.com),一个 key 就能调用 Claude 全系列模型。

Linux / macOS 设置:

cd 你的项目目录 exportANTHROPIC_AUTH_TOKEN=sk-你的token exportANTHROPIC_BASE_URL=https://crazyrouter.com/ exportAPI_TIMEOUT_MS=300000 claude 

Windows PowerShell:

cd 你的项目目录 $env:ANTHROPIC_BASE_URL = "https://crazyrouter.com/"$env:ANTHROPIC_AUTH_TOKEN = "sk-你的token"$env:API_TIMEOUT_MS = "300000" claude 

Windows CMD:

cd 你的项目目录 set ANTHROPIC_BASE_URL=https://crazyrouter.com/ set ANTHROPIC_AUTH_TOKEN=sk-你的token set API_TIMEOUT_MS=300000 claude 

第四步:首次启动配置

启动后会有几个配置步骤:

  1. 选主题 → 选你喜欢的,回车
  2. 安全提示 → 确认,回车
  3. 终端配置 → 默认就行,回车
  4. 信任工作目录 → 确认,回车

搞定,可以开始用了。

常见问题

报错 “Invalid API Key · Please run /login”
→ 环境变量没设对,检查 ANTHROPIC_AUTH_TOKEN 和 ANTHROPIC_BASE_URL
→ 如果是写在配置文件里的,重启终端再试

显示 “offline” 状态
→ Claude Code 会检测 Google 连通性,连不上就显示 offline
→ 不影响正常使用,忽略就行

请求一直 “fetch failed”
→ 网络问题,检查代理设置
→ 退出(Ctrl+C)重新运行 claude

API 报错
→ 可能是转发服务不稳定,退出重试
→ 持续报错的话等一会再试

使用体验

跟 Copilot 最大的区别是,Claude Code 能理解整个项目上下文。你可以跟它说"帮我把这个模块重构成 TypeScript",它会读完所有相关文件然后一次性改好。

而且因为是终端工具,跟 git 配合特别好。改完代码直接让它帮你写 commit message,甚至可以让它自己 commit。

配合 Crazyrouter 使用的话,API 费用大概是官方的 55%,对于重度用户来说一个月能省不少。

相关链接

→ Claude Code 官方文档:https://docs.anthropic.com
→ Node.js 官网:https://nodejs.org
→ Crazyrouter(API 聚合,省钱):https://crazyrouter.com?ref=ZEEKLOG


如果这篇文章对你有帮助,点个赞收藏一下。有问题评论区交流。

Read more

Llama-3.2-3B部署案例:Ollama镜像免配置+Mac M1/M2芯片原生运行实测

Llama-3.2-3B部署案例:Ollama镜像免配置+Mac M1/M2芯片原生运行实测 想在Mac上快速体验最新的大语言模型?Llama-3.2-3B配合Ollama镜像,让你5分钟内就能开始与AI对话,无需任何复杂配置。 作为一名长期在Mac上折腾AI模型的技术爱好者,我最头疼的就是环境配置和依赖问题。每次看到"只需简单几步"的教程,结果往往需要安装一堆库、解决各种兼容性问题。 直到遇到了Ollama版的Llama-3.2-3B镜像,我才真正体验到了什么叫"开箱即用"。特别是对Mac M1/M2用户来说,这个镜像做了原生优化,不需要通过Rosetta转译,性能直接拉满。 1. Llama-3.2-3B模型简介 Llama 3.2是Meta最新推出的轻量级大语言模型系列,包含1B和3B两个版本。我这次实测的3B版本虽然在参数规模上不算巨大,但在多语言对话场景下的表现相当惊艳。 1.1 核心特点 这个模型专门针对多语言对话进行了优化,无论是中文、英文还是其他语言,都能保持不错的对话流畅度。我在测试中发现,它在理解用户意图和生成连贯回复方面,

从敏捷到生成式:AIGC如何改变软件测试的全流程

从敏捷到生成式:AIGC如何改变软件测试的全流程

过去二十年,软件测试经历了两次重要范式变迁。 第一次是 瀑布式测试 → 敏捷测试。 第二次是 人工驱动测试 → 自动化测试。 而今天,随着生成式人工智能(AIGC)的兴起,软件测试正在经历第三次重大转型: 从“敏捷测试”走向“生成式测试(Generative Testing)”。 这种变化不仅仅是工具升级,而是测试方法论、测试流程和测试角色的全面重构。 本文将从工程实践的角度,系统分析 AIGC 如何重塑软件测试全流程,并给出可以落地的技术路径。 一、软件测试范式的三次演进 软件测试的发展基本可以分为三个阶段。 阶段核心特点主要问题瀑布测试测试在开发后期进行反馈周期长敏捷测试测试融入开发迭代人工成本高生成式测试AI参与测试设计与执行方法论正在形成 敏捷测试思想来自 Agile Testing: A Practical Guide for Testers and Agile Teams 以及 Continuous Delivery 提出的持续交付理念。 其核心思想包括: * 测试左移(Shift Left)

Intel GPU加速llama.cpp:SYCL后端完整配置与性能调优指南

Intel GPU加速llama.cpp:SYCL后端完整配置与性能调优指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 随着Intel Arc显卡在消费级市场的普及,越来越多的开发者希望利用Intel GPU来加速大语言模型的推理。llama.cpp作为当前最流行的开源LLM推理框架,通过SYCL后端为Intel GPU提供了强大的计算支持。本文将从实际使用角度出发,深入解析SYCL后端的配置要点和性能优化技巧。 为什么SYCL是Intel GPU的最佳选择? 在llama.cpp的多后端架构中,SYCL相比传统的OpenCL具有显著优势。SYCL基于现代C++标准,提供了更简洁的编程模型和更好的编译器支持。对于Intel Arc显卡用户,SYCL能够充分利用Xe架构的硬件特性,在矩阵乘法等核心操作上实现更高的计算效率。 环境配置:避开常见的安装陷阱 正确安装Intel

腾讯混元图像模型2.1重磅开源:2K分辨率+双语支持重构AIGC创作体验

9月9日,科技巨头腾讯对外发布重大技术成果——旗下新一代AIGC基础设施混元图像模型2.1正式完成开源部署。此次发布标志着国内图像生成技术在工业化应用领域实现关键突破,该模型不仅原生支持2048×2048超高分辨率输出,更突破性实现中英文双语指令的无缝理解与执行。伴随主模型一同开源的还有腾讯自主研发的PromptEnhancer智能文本优化工具,该工具通过深度学习算法自动提升用户指令的精准度,当输入基础需求"绘制可爱猫咪"时,系统会智能扩展为"橘色短毛猫咪趴卧于格子桌布,爪边散落饼干碎屑,水彩风格渲染"的精细化描述。这种双向语言转换能力支持跨语种创作,例如中文指令"绘制带有'Dream'字样的星空蛋糕",可精准生成符合英文语义的视觉作品,有效解决了AIGC创作中普遍存在的"描述断层"痛点。 作为腾讯混元大模型体系的重要升级,2.1版本在核心能力上实现多维突破。在指令理解维度,该模型率先支持1000tokens超长文本输入,可解析包含多主体、多场景、多动作的复杂叙事结构。典型应用案例显示,当输入"四格漫画形式(2×