TRAE 接入方舟 Coding Plan教程(AI IDE 字节系)

TRAE 接入方舟 Coding Plan教程(AI IDE 字节系)

1 下载&安装TRAE

1.1 什么是 TRAE ?

字节跳动发布的AI原生编程工具,可帮助开发者从0到1开发完整项目。

TRAE(/treɪ/)深度融合 AI 能力,是一名能够理解需求、调用工具并独立完成各类开发任务的“AI 开发工程师”,帮助你高效推进每一个项目。

支持以下功能:

实时续写代码调试运行智能排查Bug版本控制自动构建项目一键预览效果解答技术难题

1.2 下载

国内版下载地址(推荐):https://www.trae.cn/ide/download

国际版下载地址(适合已订阅国外大模型的用户): https://www.trae.ai/download

目前支持的系统(注意:Linux版本需要预约候补):

  • Windows
  • macOS
  • Linux

1.3 安装

 点击打开已下载的安装包,选择安装目录,一路点击下一步即可。

选择“个人用户”

注意:“个人版”登录需要个人手机号码

2 订阅方舟 Coding Plan

2.1 订阅地址及活动

订阅活动地址: https://www.volcengine.com/activity/codingplan

活动:

        活动价格:Lite plan 原价40月/月,活动价9折。

        新用户最低至首月3元/月。

        新用户福利:赠 ArkClaw 7 天免费体验。

        模型自由,工具不限,免费解锁 ArkClaw(字节龙虾),7*24 小时在线的专属智能伙伴。

推荐活动邀请码:

         限时邀请有礼活动:邀请好友订阅,好友可享 9 折优惠;您也可获得 10% 的代金券奖励,上不封顶。

X496JUKT

2.2 套餐包含哪些大模型?

目前支持的大模型:https://www.volcengine.com/docs/82379/1925114?lang=zh&_vtm_=0.0.c854860.d562002.0#51b87c17

 Doubao-Seed-2.0-pro/lite/Code Doubao-Seed-Code MiniMax-M2.5 Kimi-K2.5 GLM-4.7 Deepseek-V3.2


 

3 TRAE-个人版 如何配置使用方舟 Coding Plan

3.1 配置步骤

1)使用个人账号登录 TRAE;

2)点击设置并在模型页面中点击“添加模型”;

        

 3)在弹出的页面中,依次填写必要的参数

服务商:火山引擎 Plan

模型:   直接从列表中选择提供的模型:GLM-4.7Kimi-K2.5DeepSeek-V3.2Doubao-Seed-Code如果以上列表中没有你想要的模型,则选择“使用其他模型”,并按照Coding Plan 核心参数中参数值的模型 ID填入正确的模型 ID。

API 密钥:获取API Key

其他模型 Coding Plan 核心参数

核心参数参数值 注意事项
Base URLhttps://ark.cn-beijing.volces.com/api/coding/v3⚠️ 注意:请勿使用 https://ark.cn-beijing.volces.com/api/v3,该 Base URL 对应的是在线推理接口,不会消耗您的 Coding Plan 额度,而是会产生额外费用。
Model Name支持的模型名称如下:
doubao-seed-2.0-code
doubao-seed-2.0-pro
doubao-seed-2.0-lite
doubao-seed-code
minimax-m2.5
glm-4.7
deepseek-v3.2
kimi-k2.5
ark-code-latest (选择 ark-code-latest 时,可通过 开通管理页面选择或切换目标模型,切换模型后 3-5 分钟即可生效)
⚠️ 注意:请勿填写成 在线推理的 Model ID ,这些 Model ID 对应的是在线推理的模型名称,例如:
doubao-seed-2-0-pro-260215
doubao-seed-2-0-code-preview-260215
glm-4-7-251222
deepseek-v3-2-251201
API Key获取 API Key

获取API Key

配置地址:

https://console.volcengine.com/ark/region:ark+cn-beijing/apikey?apikey=%7B%7D

推荐方式:先建项目再创建API Key,方便统计token使用情况

        a)【项目配置】新建项目

        b)【账号全部资源】切换为新建的项目

        c)【API Key 管理】新增API Key

4)添加完成后,在TRAE的问答窗口中选择刚刚配置的模型即可。

        

   

3.2 切换模型   

在 AI 对话输入框的右下角,单击当前模型名称,在模型列表中,选择配置的模型。

注意:优先选择自定义的模型,这样才能正确使用订阅内的token套餐,避免产生额外费用。

至此,模型已经配置完成,之后就可以在 TRAE 中进行 AI 编程任务了。

4 总结

字节系的 AI 编程工具 TRAE + 方舟 Coding Plan 的组合还是比较容易落地的,同一厂家兼容性保障较好,目前订阅也不用抢(点名GLM Coding Plan)。

截止2026年03月18日,已陆续放开订阅:

Read more

FastAPI:Python 高性能 Web 框架的优雅之选

FastAPI:Python 高性能 Web 框架的优雅之选

🚀 FastAPI:Python 高性能 Web 框架的优雅之选 * 🌟 FastAPI 框架简介 * ⚡ 性能优势:为何选择 FastAPI? * 性能对比表 * 🔍 同步 vs 异步:性能测试揭秘 * 测试代码示例 * 测试结果分析 * 🛠️ FastAPI 开发体验:优雅而高效 * 1. 类型提示与自动验证 * 2. 交互式 API 文档 * 🏆 真实案例:为什么企业选择 FastAPI * 📚 后续学习引导 * 🎯 结语 🌟 FastAPI 框架简介 在当今快速发展的互联网时代,构建高效、可靠的 API 服务已成为后端开发的核心需求。FastAPI 作为 Python 生态中的新星,以其卓越的性能和开发者友好特性迅速赢得了广泛关注。 框架概述:FastAPI 是一个现代化的 Python Web 框架,专为构建

前端流式输出实现详解:从原理到实践

前端流式输出实现详解:从原理到实践

前端流式输出实现详解:从原理到实践 * 前言 * 一、流式输出核心原理 * 1.1 什么是流式输出? * 1.2 技术优势对比 * 1.3 关键技术支撑 * 二、原生JavaScript实现方案 * 2.1 使用Fetch API流式处理 * 关键点解析: * 2.2 处理SSE(Server-Sent Events) * 三、主流框架实现示例 * 3.1 React实现方案 * 3.2 Vue实现方案 * 四、高级优化策略 * 4.1 性能优化 * 4.2 用户体验增强 * 4.3 安全注意事项 * 五、实际应用案例 * 5.1 聊天应用实现

搭建一个基于Django框架的WebApi项目

搭建一个基于Django框架的WebApi项目

让我们一起走向未来 🎓作者简介:全栈领域优质创作者 🌐个人主页:百锦再@新空间代码工作室 📞工作室:新空间代码工作室(提供各种软件服务) 💌个人邮箱:[[email protected]] 📱个人微信:15045666310 🌐网站:https://meihua150.cn/ 💡座右铭:坚持自己的坚持,不要迷失自己!要快乐 目录 * 让我们一起走向未来 * 一、创建Django项目 * 二、安装相关依赖 * 三、配置MySQL数据库 * 四、配置Redis缓存 * 五、配置JWT中间件 * 六、配置Swagger接口文档 * 七、创建示例API * 八、总结 一、创建Django项目 首先,确保你的环境中已安装Django。如果没有,可以通过以下命令安装: pip install django

【开源】FUXA:HMI-SCADA-Dashboard基于 Web的可视化组态平台

【开源】FUXA:HMI-SCADA-Dashboard基于 Web的可视化组态平台

一、介绍 FUXA 是一款基于 Web 的过程可视化 (SCADA/HMI/Dashboard) 软件。使用FUXA,通过简单的拖放操作,可以迅速创建高度个性化的数据可视化界面。丰富的组态资源、详尽的使用资料、不断完善的模板库、足够开放的设计理念为用户提供灵活、创新、便捷、自由的编程体验。 * 🌐项目地址: https://github.com/frangoteam/FUXA * 🗝️开源协议:MIT License * 🔧技术栈:Node.js(后端) +Angular(前端)+SVG 二、主要特征 * 轻量级和可移植的跨平台应用程序 FUXA 很容易从使用 树莓派、物联网网关等的小型项目扩展到大型设施的可视化。它还提供强大的完全基于 Web 的新工具,允许您实时创建丰富的可视化、数据日志、警报、通知、