Claude部署(copilot反向代理)

一、教育邮箱认证

1、进行教育邮箱认证可免费使用claude pro 2年,有机会的话可以进行认证,无法教育认证的话只能花钱充claude的会员了,如何进行教育认证可观看该Up的视频

超简单一次通过Github学生认证,逐步详细视频教程_哔哩哔哩_bilibili

2、教育认证通过后在GitHub个人主页下的Copilot/Features中开启Copilot Pro

二、服务器上配置Copilot反向代理

1、配置nodejs环境

在官网https://nodejs.org/en/download/package-manager,下载nodejs安装包(Linux)

下载完成后将压缩包传到服务器上进行解压,目录如下

创建软连接,使得在任意目录下都可以试用直接使用node命令和npm命令

ln -s /root/node-v24.13.1-linux-x64/bin/node /usr/local/bin/node ln -s /root/node-v24.13.1-linux-x64/bin/npm /usr/local/bin/npm 

命令执行成功后,切到“usr/local/bin”目录,可以看到该目录下有两个文件

编辑环境配置文件,首先cd 到根目录

然后编辑etc下的profile文件

vim /etc/profile

在该文件的最后一行加入两行export的代码,修改完成后执行source /etc/profile 刷新环境配置

检查node及npm版本,出现版本号则nodejs环境配置完成

2、科学上网

3、配置copilot环境

npm install -g copilot-api copilot-api start

如果出现这种情况

复制copilot-api的绝对路径,再start

/root/node-v24.13.1-linux-x64/bin/copilot-api start

成功start后的终端会出现以下模型

三、本地部署claude

1、安装最新 NodeJS 环境,下载安装包(Windows版本)一路下一步安装即可:https://nodejs.org/zh-cn/download

2、安装claude code

在cmd终端中输入npm install -g @anthropic-ai/claude-code

3、使用claude code,开启两个cmd终端,其中一个用来远程链接服务器,注意服务器上要开启VPN代理,copilot-api start也要运行

ssh 用户名@IP地址

另一个cmd终端,用来使用claude code,在终端中输入claude即可启动

如果出现 claude code 无法连接到 Anthropic 服务,修改claude.json文件

Unable to connect to Anthropic services Failed to connect to api.anthropic.com: ERR BAD REQUEST lease check your internet connection and network settings. Note: Claude Code might not be available in your country, Check supported countries atnttps://anthropic.com/supported-countriesS E:ltoollclaude code> 

加一行字段,"hasCompletedOnboarding": true

如果出现需要登陆的情况,在终端中输入以下命令,关闭终端后开启,重新输入claude。如果依然还需要登陆,删掉.claude.json文件后再来一次

setx ANTHROPIC_API_KEY "sk-anything" setx ANTHROPIC_BASE_URL "http://127.0.0.1:4141"

参考资料

超简单!手把手教你玩转ClaudeCode,无魔法不会员!-腾讯云开发者社区-腾讯云

Claude Code+Claude-4.5代理配置全流程:从零开始搭建AI编程环境!_claude code 代理-ZEEKLOG博客

Linux环境安装配置nodejs详细教程_linux安装nodejs-ZEEKLOG博客

解决:claude code 无法连接到 Anthropic 服务_unable to connect to anthropic services failed to -ZEEKLOG博客

Read more

Intel GPU加速llama.cpp:SYCL后端完整配置与性能调优指南

Intel GPU加速llama.cpp:SYCL后端完整配置与性能调优指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 随着Intel Arc显卡在消费级市场的普及,越来越多的开发者希望利用Intel GPU来加速大语言模型的推理。llama.cpp作为当前最流行的开源LLM推理框架,通过SYCL后端为Intel GPU提供了强大的计算支持。本文将从实际使用角度出发,深入解析SYCL后端的配置要点和性能优化技巧。 为什么SYCL是Intel GPU的最佳选择? 在llama.cpp的多后端架构中,SYCL相比传统的OpenCL具有显著优势。SYCL基于现代C++标准,提供了更简洁的编程模型和更好的编译器支持。对于Intel Arc显卡用户,SYCL能够充分利用Xe架构的硬件特性,在矩阵乘法等核心操作上实现更高的计算效率。 环境配置:避开常见的安装陷阱 正确安装Intel

AIGC 应用工程师、人工智能训练工程师、人工智能算法工程师、人工智能标注工程师、AI智能体应用工程师、生成式人工智能应用工程师

(一)报考条件:年满18周岁 (二)报名及考试流程  1.  学生填写报名表:姓名、性别、身份证号、电话号码、所报证书名称、级别,务必保证信息正确。 2. 使用电子照片要求: 背景颜色:蓝色、白色; 3. 拿证周期:3-4个月 人工智能应用工程师(高级)课程体系解读 课程体系围绕人工智能应用工程师(高级) 职业技能培养,分 6 大阶段,覆盖环境搭建、数据处理、核心算法、实战应用、效果测试与职业考核全流程,是从基础到高阶的完整 AI 应用开发学习路径。 一、阶段核心内容与能力目标 1. 人工智能环境管理 * 核心课程:环境与存储系统配置 * 知识模块:Python/Spark 环境搭建、虚拟机与

终于把LLaMA 2跑起来了,然后呢?本地大模型部署的残酷真相!

终于把LLaMA 2跑起来了,然后呢?本地大模型部署的残酷真相!

“终于把LLaMA 2跑起来了!” 深夜11点,程序员小林在朋友圈晒出电脑屏幕截图——黑色命令行窗口里,一行行代码滚动后,本地大模型吐出了第一句回答。他兴奋地刷新着评论区,看着“大佬”“技术牛”的赞美,感觉自己摸到了AI时代的“核心门槛”。 可这份热情没能撑过一个月。如今,那台专门升级了显卡的电脑,大模型程序静静躺在硬盘深处,偶尔开机,也只是为了清理缓存。“生成一句话要等10秒,写周报还能把部门名写错,不如直接用GPT-4 API,3秒出结果还靠谱。”小林的话,道出了无数本地部署玩家的心声。 2023年以来,“本地部署大模型”成了AI圈的热门话题。从技术博主的“手把手教程”,到论坛里的“配置交流帖”,仿佛人人都能拥有一台“私人AI服务器”。但热闹背后,是一场无声的“弃坑潮”:某技术社区调研显示,70%的个人用户在部署完成后3个月内停止使用,曾经的“技术勋章”,最终沦为“电子垃圾”。 这股热情的消退,绝非偶然。当“掌控AI”

白嫖专业版!Github Copilot Pro竟然可以免费使用

今天有个好消息要和大家分享: GitHub Copilot 已在 Visual Studio Code 上免费开放! 无论是谁,都能畅享 AI 助力下的高效开发新体验! 如何免费在vscode中使用copilot * 下载最新版本的 VS Code https://code.visualstudio.com/Download 如果下载慢,可以通过下面的网盘链接获取: https://pan.quark.cn/s/3fb6dcedfed8 * 打开vscode编译器,按照下面步骤操作 这时候就可以看到账户已经启用Copilot Free copilot Free 和copilot Pro主要功能对比 功能FreePro消息和互动每月最多 50 个无限实时代码建议每月最多 2,000无限上下文感知编码支持和解释支持支持VS Code 中的多文件编辑支持支持切换模型支持支持GitHub 中的代码审查不支持支持拉取请求中的 Copilot Workspace不支持支持VS Code 中的 Java