【手把手详细教程】 Trae AI和Vscode~使用第三方中转API配置Claude ,GPT,Gemini等大模型教程

【手把手详细教程】 Trae AI和Vscode~使用第三方中转API配置Claude ,GPT,Gemini等大模型教程

        在人工智能技术迅猛发展的今天,Anthropic 的 Claude 系列模型,Openai的GPT系列模型,Google的Gemini系列因其卓越的推理能力、代码生成和长文本处理技术,已成为全球开发者构建智能应用的重要选择。然而,国内开发者在直接调用官方模型时,普遍面临网络延迟高、访问不稳定、支付繁琐等难题。此帖子为记录我配置TRAE 软件时,配置的详细步骤,以及接入Claude ,GPT,Gemini等大模型过程。(Tips:后续发现Vscode配置也是同流程,也可以进行此帖子参考)

1.安装TRAE

         访问 Trae AI 官网,选择适合自己电脑操作系统进行下载,本文以博主的Windows系统作为举例。

        (国内版官网)https://www.trae.com.cn/

        (国际版官网)https://www.trae.ai/

2.配置TRAE

选择语言(中文/英文)和主题(暗色/亮色/深蓝)

根据需要导入现有编辑器设置(可选)

如果之前使用过 VS Code ,可以一键导入配置

点击从 VS Code 导入" 导入"按钮

系统会自动导入插件、IDE 设置、快捷键设置等信息

如需全新开始,可选择跳过即可

然后添加命令行(可选)

为方便在终端中使用 Trae:

点击"安装 trae 命令"按钮

安装后可在终端使用以下命令:

trae:快速唤起 Trae

trae my-react-app:在 Trae 中打开指定项目

如果不需要可以直接点击跳过即可。 成功后进入TRAE主界面。

进入TRAE的扩展商店搜索Cline进行安装下载。

3.API Key与URL地址的获取

要想在TRAE上正确使用各类大模型我们需要购买官方平台提供的API或者第三方提供的API。

通过对比价格,稳定性,速度,三方面后,我决定选择的第三方魔芋api平台来获取API key。

点击链接前往api平台👉https://www.moyu.info/register?aff=g2d7

使用手机号码或者邮箱来进行账号注册。

注册成功后登录进入【令牌管理】

配置完成后可以使用新配置的令牌或者,初始平台生成的令牌。

返回TRAE的配置地方,填写好相关URL地址->https://www.moyu.info, 平台上复制的api key,

然后Model ID 要去平台复制。(模型广场里面每个模型右上角有复制按钮)

4.接入GPT系列或者Gemini系列模型

安装好后,打开侧边的Cline应用。

勾选第三个[Bring my own API Key] 确定,进入api配置界面。

使用Gemini和GPT模型需要注意不要选择错了 API Provider!!!

保存后,回去主页面测试一下,正常回复,即为成功!!!!

5.接入Claude系列模型

TRAE如果接入Claude系列模型会比较复杂,摸索了许久,最后整理如下。

所以我们要先进行Claude Code的下载以及配置。

Claude Code 安装教程

1. 环境安装

1.1 Node.js 环境安装

  1. 打开浏览器访问 https://nodejs.org/
  2. 点击 "LTS" 版本进行下载(推荐长期支持版本)
  3. 下载完成后双击 .msi 文件
  4. 按照安装向导完成安装,一直 Next 保持默认设置即可

                按下 Win + X 组合键,选择 "终端管理员" 或 "Windows PowerShell (管理员)" 打开         PowerShell,输入以下命令:

node --version npm --version

如果显示版本号,说明安装成功。

1.2 安装 Git Bash

下载并安装 Git for Windows:

  1. 访问 https://git-scm.com/downloads/win
  2. 点击 "Download for Windows" 下载安装包
  3. 运行下载的 .exe 安装文件
  4. 在安装过程中保持默认设置,直接点击 "Next" 完成安装

安装完成后验证 Git Bash 安装,打开 Git Bash 输入以下命令验证:

git --version

2. 安装 配置Claude Code

打开 PowerShell,运行以下命令:

npm install -g @anthropic-ai/claude-code 

安装完成后若出现 Setup notes 提示,运行以下命令:

[Environment]::SetEnvironmentVariable('Path', ([Environment]::GetEnvironmentVariable('Path','User') + ";$HOME\.local\bin"), 'User')

安装完成后输入以下命令查看是否安装成功:

claude --version

安装成功后配置环境变量,在 PowerShell 输入以下命令:

[Environment]::SetEnvironmentVariable("ANTHROPIC_AUTH_TOKEN", "API 密钥", "User") [Environment]::SetEnvironmentVariable("ANTHROPIC_BASE_URL", "平台地址", "User") [Environment]::SetEnvironmentVariable("ANTHROPIC_MODEL", "默认 claude 模型", "User") 

(密钥是填写平台上复制的,平台地址是:https://www.moyu.info,模型名称也要去平台上复制要用的Claude模型)

设置完成后关闭当前 PowerShell,重新打开一个 PowerShell 界面,检查是否配置成功:

echo $env:ANTHROPIC_AUTH_TOKEN echo $env:ANTHROPIC_BASE_URL echo $env:ANTHROPIC_MODEL

显示这样即为安装配置成功!!!

3. 在TRAE上配置Claude Code 插件

在TRAE上扩展商店上搜索Claude Code for VS Code 进行下载。

下载完成后点击左边区域的Claude按钮启动。

然后就会自动打开对话框的了,图示为配置成功展示。我配置是用(Claude Sonnet 4.6)。

6.总结

这次配置过程还是颇为复杂的,但收获良多。在VScode上此教程也是通用的,也可以进行对照参考。

Read more

不想自己看文献的,试试这9个AI读文献神器!

不想自己看文献的,试试这9个AI读文献神器!

不想自己看文献?试试这 9 个超好用的 AI 读文献神器,轻松解决文献阅读难题,让你的阅读效率大幅提升! 一、Scholaread 靠岸学术(首推!) 作为专为科研人员打造的智能阅读平台,Scholaread 靠岸学术彻底解决了文献阅读的三大痛点:内容碎片化、移动端体验差、理解不透彻。其核心技术亮点包括: 🔥 三大黑科技,让文献阅读从此高效无痛! ✅ 【智能解析系统】 能够快速对各类文献进行结构化解析,自动提取文献中的关键信息,如研究目的、方法、结果、结论等,让零散的内容变得有条理,帮助读者快速把握文献的核心要点。 ✅ 【AI 深度解读】 借助强大的 AI 算法,对文献中的复杂概念、专业术语、晦涩公式等进行深入解读,用通俗易懂的语言进行解释,让读者轻松理解文献内容,即使是难度较高的文献也能快速掌握。 ✅ 【无缝跨平台同步】 支持通勤时用手机阅读,到实验室后用电脑继续精读,批注、笔记实时同步,打破设备限制,让文献阅读更加灵活便捷,文献阅读效率提升 60%

CosyVoice3用户手册完整版:WebUI访问、音频上传与生成全流程

CosyVoice3用户手册完整版:WebUI访问、音频上传与生成全流程 在智能语音内容爆发的今天,如何快速、精准地生成“像人”的语音,已成为AIGC落地的关键一环。传统TTS系统虽然能“说话”,但声音千篇一律,语气僵硬,面对中文复杂的多音字和方言表达更是力不从心。而随着大模型技术的演进,真正意义上的个性化语音克隆正从实验室走向桌面。 阿里开源的 CosyVoice3 正是这一趋势下的代表性成果。它不仅能在3秒内复刻一个人的声音,还能通过自然语言指令控制语气、情绪甚至方言种类,让机器“说话”变得前所未有的自然和可控。更难得的是,这套系统完全开源,支持本地部署,普通开发者也能轻松上手。 从3秒开始的声音克隆 你只需要一段3到10秒的清晰录音,就能让模型“学会”你的声音。这背后并非传统的微调(fine-tuning),而是基于声纹嵌入(d-vector) 的零样本推理机制。 整个流程非常轻量:当你上传一段音频后,系统会通过一个独立的声纹编码器提取出一个固定维度的向量——这个向量就像是你声音的“指纹”。随后,这个指纹被作为条件输入注入到主TTS解码器中,引导模型在生成语音时复现相

深度教学 | OpenClaw 全自动 AI Agent 安全部署与代码级实战指南

概要 近期,OpenClaw 作为一款能够全天候接管终端、文件系统以及各大通讯软件的全自动 AI Agent,在开发者社区中引发了极大的关注。其强大的自动化能力令人着迷,但伴随而来的高危系统权限也让安全风险陡增。近期曝光的大量公网裸露实例,正是缺乏底层安全设计的典型反面教材。 本文将以深度教学的视角,带您从零开始在云服务器上部署 OpenClaw。我们将彻底摒弃那些为了求快而牺牲安全性的封装脚本,从底层架构出发,通过具体的代码实例与配置细节,深入探讨如何构建一个兼具极高安全性、运行健壮性以及流畅用户体验的 AI 代理运行环境。 整体架构流程 在动手敲击代码之前,理解系统的整体数据流向对于保障应用的健壮性至关重要。OpenClaw 的核心架构可以抽象为三个主要层级。最外层是与用户产生交互的 Gateway 控制台以及各类接入端。中间层是大脑调度中心,负责接收指令、维持上下文并向大语言模型发起 API 请求。最底层则是其执行引擎,它直接与宿主机的操作系统打交道,执行高权限的文件读写和命令下发。 这种深度的系统整合意味着,一旦中间层的网关被恶意攻破,攻击者就能直接通过底层执行引擎

用Python打造AI三剑客:自动总结+写代码+查资料的完整指南

用Python打造AI三剑客:自动总结+写代码+查资料的完整指南

欢迎文末添加好友交流,共同进步! “ 俺はモンキー・D・ルフィ。海贼王になる男だ!” * 前言 * 目录 * 一、准备工作:环境与API配置 * 1.1 技术栈选择 * 1.2 环境配置 * 1.3 核心工具类封装 * 二、工具一:智能文档总结器 * 2.1 功能设计 * 2.2 核心代码实现 * 2.3 使用效果对比 * 三、工具二:AI代码生成器 * 3.1 功能架构 * 3.2 核心实现 * 交互式代码生成器 * 使用示例 * 4.2 核心代码 * 4.3 搜索效率对比 * 五、