【手把手详细教程】 Trae AI和Vscode~使用第三方中转API配置Claude ,GPT,Gemini等大模型教程

【手把手详细教程】 Trae AI和Vscode~使用第三方中转API配置Claude ,GPT,Gemini等大模型教程

        在人工智能技术迅猛发展的今天,Anthropic 的 Claude 系列模型,Openai的GPT系列模型,Google的Gemini系列因其卓越的推理能力、代码生成和长文本处理技术,已成为全球开发者构建智能应用的重要选择。然而,国内开发者在直接调用官方模型时,普遍面临网络延迟高、访问不稳定、支付繁琐等难题。此帖子为记录我配置TRAE 软件时,配置的详细步骤,以及接入Claude ,GPT,Gemini等大模型过程。(Tips:后续发现Vscode配置也是同流程,也可以进行此帖子参考)

1.安装TRAE

         访问 Trae AI 官网,选择适合自己电脑操作系统进行下载,本文以博主的Windows系统作为举例。

        (国内版官网)https://www.trae.com.cn/

        (国际版官网)https://www.trae.ai/

2.配置TRAE

选择语言(中文/英文)和主题(暗色/亮色/深蓝)

根据需要导入现有编辑器设置(可选)

如果之前使用过 VS Code ,可以一键导入配置

点击从 VS Code 导入" 导入"按钮

系统会自动导入插件、IDE 设置、快捷键设置等信息

如需全新开始,可选择跳过即可

然后添加命令行(可选)

为方便在终端中使用 Trae:

点击"安装 trae 命令"按钮

安装后可在终端使用以下命令:

trae:快速唤起 Trae

trae my-react-app:在 Trae 中打开指定项目

如果不需要可以直接点击跳过即可。 成功后进入TRAE主界面。

进入TRAE的扩展商店搜索Cline进行安装下载。

3.API Key与URL地址的获取

要想在TRAE上正确使用各类大模型我们需要购买官方平台提供的API或者第三方提供的API。

通过对比价格,稳定性,速度,三方面后,我决定选择的第三方魔芋api平台来获取API key。

点击链接前往api平台👉https://www.moyu.info/register?aff=g2d7

使用手机号码或者邮箱来进行账号注册。

注册成功后登录进入【令牌管理】

配置完成后可以使用新配置的令牌或者,初始平台生成的令牌。

返回TRAE的配置地方,填写好相关URL地址->https://www.moyu.info, 平台上复制的api key,

然后Model ID 要去平台复制。(模型广场里面每个模型右上角有复制按钮)

4.接入GPT系列或者Gemini系列模型

安装好后,打开侧边的Cline应用。

勾选第三个[Bring my own API Key] 确定,进入api配置界面。

使用Gemini和GPT模型需要注意不要选择错了 API Provider!!!

保存后,回去主页面测试一下,正常回复,即为成功!!!!

5.接入Claude系列模型

TRAE如果接入Claude系列模型会比较复杂,摸索了许久,最后整理如下。

所以我们要先进行Claude Code的下载以及配置。

Claude Code 安装教程

1. 环境安装

1.1 Node.js 环境安装

  1. 打开浏览器访问 https://nodejs.org/
  2. 点击 "LTS" 版本进行下载(推荐长期支持版本)
  3. 下载完成后双击 .msi 文件
  4. 按照安装向导完成安装,一直 Next 保持默认设置即可

                按下 Win + X 组合键,选择 "终端管理员" 或 "Windows PowerShell (管理员)" 打开         PowerShell,输入以下命令:

node --version npm --version

如果显示版本号,说明安装成功。

1.2 安装 Git Bash

下载并安装 Git for Windows:

  1. 访问 https://git-scm.com/downloads/win
  2. 点击 "Download for Windows" 下载安装包
  3. 运行下载的 .exe 安装文件
  4. 在安装过程中保持默认设置,直接点击 "Next" 完成安装

安装完成后验证 Git Bash 安装,打开 Git Bash 输入以下命令验证:

git --version

2. 安装 配置Claude Code

打开 PowerShell,运行以下命令:

npm install -g @anthropic-ai/claude-code 

安装完成后若出现 Setup notes 提示,运行以下命令:

[Environment]::SetEnvironmentVariable('Path', ([Environment]::GetEnvironmentVariable('Path','User') + ";$HOME\.local\bin"), 'User')

安装完成后输入以下命令查看是否安装成功:

claude --version

安装成功后配置环境变量,在 PowerShell 输入以下命令:

[Environment]::SetEnvironmentVariable("ANTHROPIC_AUTH_TOKEN", "API 密钥", "User") [Environment]::SetEnvironmentVariable("ANTHROPIC_BASE_URL", "平台地址", "User") [Environment]::SetEnvironmentVariable("ANTHROPIC_MODEL", "默认 claude 模型", "User") 

(密钥是填写平台上复制的,平台地址是:https://www.moyu.info,模型名称也要去平台上复制要用的Claude模型)

设置完成后关闭当前 PowerShell,重新打开一个 PowerShell 界面,检查是否配置成功:

echo $env:ANTHROPIC_AUTH_TOKEN echo $env:ANTHROPIC_BASE_URL echo $env:ANTHROPIC_MODEL

显示这样即为安装配置成功!!!

3. 在TRAE上配置Claude Code 插件

在TRAE上扩展商店上搜索Claude Code for VS Code 进行下载。

下载完成后点击左边区域的Claude按钮启动。

然后就会自动打开对话框的了,图示为配置成功展示。我配置是用(Claude Sonnet 4.6)。

6.总结

这次配置过程还是颇为复杂的,但收获良多。在VScode上此教程也是通用的,也可以进行对照参考。

Read more

AI豆包本地部署实战:从环境配置到生产级优化指南

快速体验 在开始今天关于 AI豆包本地部署实战:从环境配置到生产级优化指南 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 AI豆包本地部署实战:从环境配置到生产级优化指南 核心痛点分析 本地部署AI豆包模型时,开发者常遇到以下典型问题: * 环境依赖冲突:CUDA版本与PyTorch/TensorRT不兼容导致安装失败,特别是同时运行多个AI服务时更易出现 * 显存管理难题:对话模型加载后显存占用持续增长,最终触发OOM(

Qdrant 向量数据库完全指南:从入门到 Spring AI/LangChain4J 集成实践

Qdrant 向量数据库完全指南:从入门到 Spring AI/LangChain4J 集成实践

前言 在人工智能和大语言模型(LLM)应用日益普及的今天,向量数据库成为了构建 AI 应用的关键基础设施。Qdrant 作为一款高性能的开源向量数据库,以其卓越的性能、易用性和丰富的功能特性,正在成为越来越多开发者的首选。 本文将详细介绍 Qdrant 的核心特性,并展示如何在 Spring Boot 项目中集成 Qdrant,以及如何配合 Spring AI 和 LangChain 等主流 AI 框架构建智能应用。 一、Qdrant 简介与核心特性 1.1 什么是 Qdrant? Qdrant(读音:quadrant)是一个用 Rust 编写的开源向量相似度搜索引擎,专门用于存储、搜索和管理向量嵌入(Vector Embeddings)。它提供了高性能的向量搜索能力,支持过滤、负载均衡等功能,非常适合构建推荐系统、语义搜索、

OpenClaw 101:从入门到实操,解锁“会动手”的AI智能体

OpenClaw 101:从入门到实操,解锁“会动手”的AI智能体

https://openclaw101.dev/ https://my.feishu.cn/wiki/MlyEwRKIwikkBlkGew0ckLfonEu https://github.com/openclaw/openclaw https://zhuanlan.zhihu.com/p/2002370444339212951 2026年初,OpenClaw(原Clawd、Moltbot)以72小时狂揽6万+ GitHub Stars的速度爆红,如今星标数已突破18万+,甚至带动Mac Mini全球卖断货、Cloudflare股价上涨20%。不同于ChatGPT等“只说不做”的聊天机器人,OpenClaw是一款开源的个人AI助手平台,核心定位是“真会动手办事”的数字员工——它能接管电脑操作权限,通过自然语言指令主动执行各类任务,真正实现“聊天框里办大事”。 本文作为OpenClaw 101入门指南,将从“是什么→怎么装→怎么用→核心原理→进阶技巧”

字节跳动DeerFlow 2.0震撼开源:46k+ Star的超级智能体框架,让AI真正“动手做事“

字节跳动DeerFlow 2.0震撼开源:46k+ Star的超级智能体框架,让AI真正“动手做事“

你是否想过:如果AI不仅能回答问题,还能像真正的助手一样,主动搜索、分析数据、生成报告,甚至制作播客,那会是怎样的体验? 2026年3月,字节跳动开源的DeerFlow 2.0给出了答案。这个项目在GitHub上迅速斩获46,333+ Star,今日新增3,787 stars,登顶Trending榜首。它不是又一个聊天机器人,而是一个能真正"动手做事"的超级智能体框架。 本文将从开发者视角,深入剖析DeerFlow的技术架构、核心能力、部署方法和实战应用,带你全面了解这个革命性的开源项目。 一、DeerFlow是什么?重新定义AI研究助手 1.1 从研究工具到超级智能体的进化 DeerFlow的名字源于Deep Exploration and Efficient Research Flow(深度探索与高效研究流程)。最初,它只是一个深度研究框架,但开发者在实际使用中发现,它的潜力远不止于此: * 有人用它构建数据管道 * 有人用它生成幻灯片和仪表盘 * 有人用它自动化内容工作流