【超详细教程】Claude Code 在 Linux(Ubuntu) 上的完整安装部署指南|一步步跑通云端/本地开发环境

【超详细教程】Claude Code 在 Linux(Ubuntu) 上的完整安装部署指南|一步步跑通云端/本地开发环境

目录

✅ 逐步安装命令(复制即用)

步骤 1:更新系统环境(强烈建议先执行)

步骤 2:安装 Node.js

步骤 3:安装 Git

步骤 4:安装 Claude Code CLI

步骤 5:配置 Claude Code 的环境变量(核心步骤)

步骤 6:首次运行 Claude Code(本地模式)

✅ 写到最后


之前的文章( Win11 下从零部署 Claude Code )里,我们已经带大家在 Win11 环境下完整跑通了 Claude Code 的本地开发环境,不少朋友后台留言说:

“能不能写一个 Linux 版本的?我服务器是 Ubuntu 的。” “生产环境都是 Linux,Win 版跑通了,但想在 Ubuntu 上部署一套更稳定的。”

确实,在实际开发场景中,无论你是做后端、DevOps、AI 研发还是自建云端环境,Linux(Ubuntu) 才是最主流、最可靠、最干净的部署系统。相比 Windows,Linux 的优势非常明显:

  • 环境更纯净,依赖冲突更少
  • 更适合长时间运行 Claude Code 的编程服务
  • 云服务器中 90% 都是 Ubuntu / Debian 系列
  • 更利于自动化脚本、Docker、Pipeline 等协作

我会用最通俗的方式,从零开始带你完成整个流程,无论你是在云服务器(腾讯云/阿里云/华为云)部署,还是在本地 Ubuntu 桌面版安装,这一篇你都能照着一步步完成。

准备好了吗?我们开始在 Linux 上“解锁” Claude Code 的全部能力吧。

✅ 逐步安装命令(复制即用)

以下步骤适用于 Ubuntu 20.04 / 22.04 / 24.04(云服务器、本地桌面版均可)。


步骤 1:更新系统环境(强烈建议先执行)

sudo apt update && sudo apt upgrade -y

步骤 2:安装 Node.js

推荐使用 NodeSource 官方源安装最新 LTS。

curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash - sudo apt install -y nodejs

检查版本:

node -v npm -v

步骤 3:安装 Git

sudo apt install -y git git --version

步骤 4:安装 Claude Code CLI

npm install -g @anthropic-ai/claude-code

检查是否安装成功:

claude --version

步骤 5:配置 Claude Code 的环境变量(核心步骤)

① 打开配置文件

mkdir -p ~/.claude nano ~/.claude/settings.json

② 填写 Claude Code 配置(复制即可)

请将 API Key 替换成自己的。

{ "env": { "ANTHROPIC_AUTH_TOKEN": "sk-xxx", "ANTHROPIC_BASE_URL": "https://linoapi.com.cn", "API_TIMEOUT_MS": "3000000", "ANTHROPIC_MODEL": "claude-haiku-4-5-20251001" } }

保存:Ctrl + O → 回车,退出:Ctrl + X

③ 注册API平台并获取APIKey

首先进入到API平台:https://linoapi.com.cn/register?aff=sJ68,点击右上角的登录/注册按钮。

刚开始注册会送0.4元的,如果不够可以去【钱包】那边适当充值。

接下来点击【API令牌】,点击【添加令牌】

填写好名称和选择好分组,这里分组一定要选择【Claude Code专属】

额度这边可以适当调整,其它的参数都默认即可,然后点击【提交】

点击复制那个秘钥就可以了。

然后在【模型广场】中搜索“Claude”,就会有很多不一样的模型,可以选择一个复制到上面配置的"ANTHROPIC_MODEL",这里我填写了"claude-haiku-4-5-20251001"。

步骤 6:首次运行 Claude Code(本地模式)

在任意项目目录执行:

claude

第一次运行会自动加载模型配置,看到命令行提示符即可开始使用。

✅ 写到最后

至此,Claude Code 在 Ubuntu 环境下的完整部署流程已经全部结束。从系统更新、依赖安装、CLI 部署到配置 settings.json,你已经具备在 Linux 系统中独立运行 Claude Code 的全部能力,无论是在云服务器进行长期后台运行,还是在本地桌面版执行即时开发,都能获得稳定可靠的体验。如果你后续还想进一步实践 VSCode Remote、Docker 化部署、自动化脚本、远程协作开发等进阶玩法,欢迎继续关注,我会持续更新更专业的 Linux + Claude Code 教程,帮助你构建更高效、更适合生产环境的 AI 开发体系。

Read more

从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南

从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南

文章目录 * 从语法纠错到项目重构:Python+Copilot 的全流程开发效率提升指南 💻✨ * 一、语法纠错:Copilot 如何成为你的“实时校对员” ✅ * 示例 1:自动修复缩进错误 * 示例 2:括号/引号自动闭合与修复 * 示例 3:类型注解缺失的智能补充 * 实战技巧:结合 Linter 使用 Copilot * 二、代码生成:从单行补全到完整函数实现 🧠⚡ * 示例 4:用注释驱动函数生成 * 示例 5:生成单元测试 * 示例 6:异步 HTTP 请求生成 * 三、调试辅助:Copilot 如何帮你“读懂”错误信息 🐞🔍 * 场景:遇到 `KeyError` 怎么办? * 场景:

By Ne0inhk
Stable Diffusion 3.5 FP8:从精度妥协到架构革命的范式转变

Stable Diffusion 3.5 FP8:从精度妥协到架构革命的范式转变

最近在生产环境跑 SD 3.5 FP8,发现了一些违反直觉的现象。本来以为 FP8 量化会牺牲质量,结果测下来几乎无损,反而推理速度翻倍、显存砍一半。这背后的技术逻辑值得聊聊,因为它改变了我对扩散模型的理解。 FP8 量化:一个被误解的技术选择 为什么扩散模型"不怕"降精度? 大部分人(包括之前的我)觉得量化就是拿精度换性能。但实际跑 SD 3.5 FP8 的时候发现,这个理解太粗暴了。 扩散模型的去噪过程本质上是个迭代纠错的过程。50 步采样里,单步的小误差会被后续步骤自动修正。打个比方,就像你用橡皮擦一张纸上的铅笔痕迹,擦 50 遍,每一遍稍微偏一点其实不影响最终结果。 实测下来: * FP32 → FP16: 肉眼基本看不出区别 * FP16 → FP8: 关键在于怎么量化,而不是精度本身

By Ne0inhk
Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

1.引言 随着大模型在各类智能应用中的广泛应用,高效的推理硬件成为关键瓶颈。昇腾 NPU(Ascend Neural Processing Unit)凭借其高算力、低能耗以及对 SGLang 的深度优化,能够显著提升大模型推理性能。本文以 Llama 3-8B-Instruct 为例,通过在昇腾 NPU 上的实测,展示其在吞吐量、延迟和资源利用方面的优势,并探索可行的优化策略,为开发者在今后的开发中提供可参考的案例。 在本篇文章中我们会使用到Gitcode的Notebook来进行实战,GitCode Notebook 提供了开箱即用的云端开发环境,支持 Python、SGLang 及昇腾 NPU 相关依赖,无需本地复杂环境配置即可直接运行代码和进行实验。对于没有硬件平台的小伙伴来说是非常便利的。 GitCode Notebook使用链接:https://gitcode.com/user/m0_49476241/notebook。 2.实验环境与准备 2.

By Ne0inhk

GitHub Copilot 使用笔记

GitHub Copilot 是 VSCode 自带的 AI Agent 插件,需要登录 GitHub 账号使用,分为免费版和付费版。 关于个人额度,可以在 Github 的 Copilot 菜单里查看 支持模型 添加第三方模型 通过 Manage Models 选中对应厂商。 可以通过 OpenRouter 来导入免费的模型,需要先到 OpenRouter 注册 API Key,输入后即可使用,也可以使用兼容 OpenAI 接口的三方 API,比如 硅基流动 SiliconFlow 使用帮助信息 切换到 Ask 模式,输入 /help 即可获取帮助命令,可以查看当前有什么可用命令和使用方法。 翻译后的内容,方便查看,

By Ne0inhk