【手把手详细教程】 Trae AI和Vscode~使用第三方中转API配置Claude ,GPT,Gemini等大模型教程

【手把手详细教程】 Trae AI和Vscode~使用第三方中转API配置Claude ,GPT,Gemini等大模型教程

        在人工智能技术迅猛发展的今天,Anthropic 的 Claude 系列模型,Openai的GPT系列模型,Google的Gemini系列因其卓越的推理能力、代码生成和长文本处理技术,已成为全球开发者构建智能应用的重要选择。然而,国内开发者在直接调用官方模型时,普遍面临网络延迟高、访问不稳定、支付繁琐等难题。此帖子为记录我配置TRAE 软件时,配置的详细步骤,以及接入Claude ,GPT,Gemini等大模型过程。(Tips:后续发现Vscode配置也是同流程,也可以进行此帖子参考)

1.安装TRAE

         访问 Trae AI 官网,选择适合自己电脑操作系统进行下载,本文以博主的Windows系统作为举例。

        (国内版官网)https://www.trae.com.cn/

        (国际版官网)https://www.trae.ai/

2.配置TRAE

选择语言(中文/英文)和主题(暗色/亮色/深蓝)

根据需要导入现有编辑器设置(可选)

如果之前使用过 VS Code ,可以一键导入配置

点击从 VS Code 导入" 导入"按钮

系统会自动导入插件、IDE 设置、快捷键设置等信息

如需全新开始,可选择跳过即可

然后添加命令行(可选)

为方便在终端中使用 Trae:

点击"安装 trae 命令"按钮

安装后可在终端使用以下命令:

trae:快速唤起 Trae

trae my-react-app:在 Trae 中打开指定项目

如果不需要可以直接点击跳过即可。 成功后进入TRAE主界面。

进入TRAE的扩展商店搜索Cline进行安装下载。

3.API Key与URL地址的获取

要想在TRAE上正确使用各类大模型我们需要购买官方平台提供的API或者第三方提供的API。

通过对比价格,稳定性,速度,三方面后,我决定选择的第三方魔芋api平台来获取API key。

点击链接前往api平台👉https://www.moyu.info/register?aff=g2d7

使用手机号码或者邮箱来进行账号注册。

注册成功后登录进入【令牌管理】

配置完成后可以使用新配置的令牌或者,初始平台生成的令牌。

返回TRAE的配置地方,填写好相关URL地址->https://www.moyu.info, 平台上复制的api key,

然后Model ID 要去平台复制。(模型广场里面每个模型右上角有复制按钮)

4.接入GPT系列或者Gemini系列模型

安装好后,打开侧边的Cline应用。

勾选第三个[Bring my own API Key] 确定,进入api配置界面。

使用Gemini和GPT模型需要注意不要选择错了 API Provider!!!

保存后,回去主页面测试一下,正常回复,即为成功!!!!

5.接入Claude系列模型

TRAE如果接入Claude系列模型会比较复杂,摸索了许久,最后整理如下。

所以我们要先进行Claude Code的下载以及配置。

Claude Code 安装教程

1. 环境安装

1.1 Node.js 环境安装

  1. 打开浏览器访问 https://nodejs.org/
  2. 点击 "LTS" 版本进行下载(推荐长期支持版本)
  3. 下载完成后双击 .msi 文件
  4. 按照安装向导完成安装,一直 Next 保持默认设置即可

                按下 Win + X 组合键,选择 "终端管理员" 或 "Windows PowerShell (管理员)" 打开         PowerShell,输入以下命令:

node --version npm --version

如果显示版本号,说明安装成功。

1.2 安装 Git Bash

下载并安装 Git for Windows:

  1. 访问 https://git-scm.com/downloads/win
  2. 点击 "Download for Windows" 下载安装包
  3. 运行下载的 .exe 安装文件
  4. 在安装过程中保持默认设置,直接点击 "Next" 完成安装

安装完成后验证 Git Bash 安装,打开 Git Bash 输入以下命令验证:

git --version

2. 安装 配置Claude Code

打开 PowerShell,运行以下命令:

npm install -g @anthropic-ai/claude-code 

安装完成后若出现 Setup notes 提示,运行以下命令:

[Environment]::SetEnvironmentVariable('Path', ([Environment]::GetEnvironmentVariable('Path','User') + ";$HOME\.local\bin"), 'User')

安装完成后输入以下命令查看是否安装成功:

claude --version

安装成功后配置环境变量,在 PowerShell 输入以下命令:

[Environment]::SetEnvironmentVariable("ANTHROPIC_AUTH_TOKEN", "API 密钥", "User") [Environment]::SetEnvironmentVariable("ANTHROPIC_BASE_URL", "平台地址", "User") [Environment]::SetEnvironmentVariable("ANTHROPIC_MODEL", "默认 claude 模型", "User") 

(密钥是填写平台上复制的,平台地址是:https://www.moyu.info,模型名称也要去平台上复制要用的Claude模型)

设置完成后关闭当前 PowerShell,重新打开一个 PowerShell 界面,检查是否配置成功:

echo $env:ANTHROPIC_AUTH_TOKEN echo $env:ANTHROPIC_BASE_URL echo $env:ANTHROPIC_MODEL

显示这样即为安装配置成功!!!

3. 在TRAE上配置Claude Code 插件

在TRAE上扩展商店上搜索Claude Code for VS Code 进行下载。

下载完成后点击左边区域的Claude按钮启动。

然后就会自动打开对话框的了,图示为配置成功展示。我配置是用(Claude Sonnet 4.6)。

6.总结

这次配置过程还是颇为复杂的,但收获良多。在VScode上此教程也是通用的,也可以进行对照参考。

Read more

StructBERT中文情感识别实战案例:短视频弹幕实时情绪热力图构建

StructBERT中文情感识别实战案例:短视频弹幕实时情绪热力图构建 1. 引言:从弹幕看情绪,一个被忽略的数据金矿 你有没有想过,当你在刷短视频时,那些飞速滚动的弹幕里藏着什么秘密? “哈哈哈笑死我了”、“泪目了”、“就这?”、“前方高能预警”……这些一闪而过的文字,其实是观众情绪最直接的表达。对于内容创作者和平台运营者来说,如果能实时看懂这些情绪,就能知道观众到底喜欢什么、讨厌什么,什么时候该加把劲,什么时候该调整方向。 但问题来了:弹幕数量庞大、更新极快,人工分析根本不可能。这时候,AI情感分析技术就成了我们的“情绪翻译官”。 今天我要分享的,就是如何用百度的StructBERT中文情感分类模型,构建一个短视频弹幕的实时情绪热力图。这个方案不仅能告诉你当前视频的“情绪温度”,还能帮你发现内容中的“情绪爆点”,让数据驱动的内容优化成为可能。 2. 为什么选择StructBERT?一个兼顾效果与效率的选择 在开始实战之前,我们先聊聊为什么选StructBERT这个模型。市面上情感分析的模型不少,但真正适合实时弹幕分析的,需要满足几个关键条件: 2.1 速度快,响

AIGC情感化升级实战:如何将智能客服投诉率从12%降至3.2%

背景痛点:为什么你的智能客服总被投诉? 智能客服已经成为企业服务标配,但高投诉率却让很多技术团队头疼。行业平均12%的投诉率背后,隐藏着几个关键的技术短板。 首先,传统规则引擎和简单意图识别无法捕捉用户情绪。当用户说“我的订单还没到”,系统可能只识别“查询订单”意图,却忽略了语气中的焦急和不满。这种情感盲区导致回复机械,无法安抚用户情绪。 其次,上下文断裂问题严重。用户在多轮对话中提及的信息,系统经常“忘记”,导致用户需要反复说明问题,体验极差。 最后,回复生成缺乏人性化。基于模板的回复千篇一律,无法根据用户情绪调整语气和措辞,让用户感觉在与机器对话。 这些痛点叠加,最终导致用户满意度下降,投诉率居高不下。要解决这些问题,我们需要为智能客服注入“情感智能”。 技术方案:构建情感化智能客服的三层架构 1. 情感识别模型选型:BERT vs LSTM的实战对比 情感识别是情感化升级的基础。我们对比了两种主流方案: LSTM方案: * 优点:训练速度快,资源消耗低,在小规模标注数据上表现良好 * 缺点:

基于Whisper-large-v3的多语言翻译系统开发

基于Whisper-large-v3的多语言翻译系统开发 想象一下这样的场景:一场国际线上会议正在进行,参会者来自世界各地,说着不同的语言。一位德国同事用德语发言,一位日本伙伴用日语提问,而你作为会议组织者,需要实时理解所有人的发言,并确保沟通顺畅。传统做法是雇佣多名翻译,成本高昂且响应延迟。现在,有了基于Whisper-large-v3构建的多语言翻译系统,这一切都可以自动化完成,而且成本只是传统方案的零头。 本文将带你一步步构建这样一个系统,从语音识别到文本翻译,形成一个完整的流水线。无论你是想为跨国团队开发内部工具,还是想为内容平台添加多语言字幕功能,这套方案都能为你提供一个坚实的起点。 1. 为什么选择Whisper-large-v3? 在开始动手之前,我们先聊聊为什么Whisper-large-v3是构建多语言翻译系统的理想选择。 Whisper-large-v3是OpenAI开源的语音识别模型,它最大的特点就是“多语言”和“高精度”。这个模型在超过100万小时的音频数据上训练过,支持99种语言的识别,包括英语、中文、法语、德语、日语、韩语等主流语言,甚至还能识别

拆解 Llama 4 Scout:Meta 新一代 MoE 模型到底强在哪

拆解 Llama 4 Scout:Meta 新一代 MoE 模型到底强在哪

摘要 Meta 于 2025 年 4 月发布的 Llama 4 Scout,是其首次将混合专家(MoE)架构引入 Llama 系列的轻量化先锋模型。作为 Llama 4 家族的入门级 MoE 型号,该模型在参数规模与部署效率间实现了精准平衡:总参数达 109B,但单 token 仅激活 17B 参数,结合原生多模态能力与行业领先的 10M token 上下文窗口,既具备处理复杂任务的潜力,又支持在单张 NVIDIA H100 GPU 上完成高效部署。 官方数据显示,Llama 4 Scout 在 MMLU、ChartQA 等主流基准测试中,显著优于 Gemma 3、