TRAE 接入方舟 Coding Plan教程(AI IDE 字节系)

TRAE 接入方舟 Coding Plan教程(AI IDE 字节系)

1 下载&安装TRAE

1.1 什么是 TRAE ?

字节跳动发布的AI原生编程工具,可帮助开发者从0到1开发完整项目。

TRAE(/treɪ/)深度融合 AI 能力,是一名能够理解需求、调用工具并独立完成各类开发任务的“AI 开发工程师”,帮助你高效推进每一个项目。

支持以下功能:

实时续写代码调试运行智能排查Bug版本控制自动构建项目一键预览效果解答技术难题

1.2 下载

国内版下载地址(推荐):https://www.trae.cn/ide/download

国际版下载地址(适合已订阅国外大模型的用户): https://www.trae.ai/download

目前支持的系统(注意:Linux版本需要预约候补):

  • Windows
  • macOS
  • Linux

1.3 安装

 点击打开已下载的安装包,选择安装目录,一路点击下一步即可。

选择“个人用户”

注意:“个人版”登录需要个人手机号码

2 订阅方舟 Coding Plan

2.1 订阅地址及活动

订阅活动地址: https://www.volcengine.com/activity/codingplan

活动:

        活动价格:Lite plan 原价40月/月,活动价9折。

        新用户最低至首月3元/月。

        新用户福利:赠 ArkClaw 7 天免费体验。

        模型自由,工具不限,免费解锁 ArkClaw(字节龙虾),7*24 小时在线的专属智能伙伴。

推荐活动邀请码:

         限时邀请有礼活动:邀请好友订阅,好友可享 9 折优惠;您也可获得 10% 的代金券奖励,上不封顶。

X496JUKT

2.2 套餐包含哪些大模型?

目前支持的大模型:https://www.volcengine.com/docs/82379/1925114?lang=zh&_vtm_=0.0.c854860.d562002.0#51b87c17

 Doubao-Seed-2.0-pro/lite/Code Doubao-Seed-Code MiniMax-M2.5 Kimi-K2.5 GLM-4.7 Deepseek-V3.2


 

3 TRAE-个人版 如何配置使用方舟 Coding Plan

3.1 配置步骤

1)使用个人账号登录 TRAE;

2)点击设置并在模型页面中点击“添加模型”;

        

 3)在弹出的页面中,依次填写必要的参数

服务商:火山引擎 Plan

模型:   直接从列表中选择提供的模型:GLM-4.7Kimi-K2.5DeepSeek-V3.2Doubao-Seed-Code如果以上列表中没有你想要的模型,则选择“使用其他模型”,并按照Coding Plan 核心参数中参数值的模型 ID填入正确的模型 ID。

API 密钥:获取API Key

其他模型 Coding Plan 核心参数

核心参数参数值 注意事项
Base URLhttps://ark.cn-beijing.volces.com/api/coding/v3⚠️ 注意:请勿使用 https://ark.cn-beijing.volces.com/api/v3,该 Base URL 对应的是在线推理接口,不会消耗您的 Coding Plan 额度,而是会产生额外费用。
Model Name支持的模型名称如下:
doubao-seed-2.0-code
doubao-seed-2.0-pro
doubao-seed-2.0-lite
doubao-seed-code
minimax-m2.5
glm-4.7
deepseek-v3.2
kimi-k2.5
ark-code-latest (选择 ark-code-latest 时,可通过 开通管理页面选择或切换目标模型,切换模型后 3-5 分钟即可生效)
⚠️ 注意:请勿填写成 在线推理的 Model ID ,这些 Model ID 对应的是在线推理的模型名称,例如:
doubao-seed-2-0-pro-260215
doubao-seed-2-0-code-preview-260215
glm-4-7-251222
deepseek-v3-2-251201
API Key获取 API Key

获取API Key

配置地址:

https://console.volcengine.com/ark/region:ark+cn-beijing/apikey?apikey=%7B%7D

推荐方式:先建项目再创建API Key,方便统计token使用情况

        a)【项目配置】新建项目

        b)【账号全部资源】切换为新建的项目

        c)【API Key 管理】新增API Key

4)添加完成后,在TRAE的问答窗口中选择刚刚配置的模型即可。

        

   

3.2 切换模型   

在 AI 对话输入框的右下角,单击当前模型名称,在模型列表中,选择配置的模型。

注意:优先选择自定义的模型,这样才能正确使用订阅内的token套餐,避免产生额外费用。

至此,模型已经配置完成,之后就可以在 TRAE 中进行 AI 编程任务了。

4 总结

字节系的 AI 编程工具 TRAE + 方舟 Coding Plan 的组合还是比较容易落地的,同一厂家兼容性保障较好,目前订阅也不用抢(点名GLM Coding Plan)。

截止2026年03月18日,已陆续放开订阅:

Read more

基于Ubuntu的libwebkit2gtk-4.1-0安装操作指南

如何在 Ubuntu 上正确安装 libwebkit2gtk-4.1-0 ?从踩坑到实战的完整指南 你有没有遇到过这样的场景:兴致勃勃地准备运行一个基于 GTK 的本地文档查看器,或是自己动手写了个 Python + WebKit 的轻量浏览器外壳,结果一执行就报错: ImportError: cannot import name 'WebKit2' from 'gi.repository' 或者更让人抓狂的是: error while loading shared libraries: libwebkit2gtk-4.1.so.0: cannot open shared object file 别急——这几乎百分之百是因为系统里缺了那个看似不起眼、实则至关重要的库: libwebkit2gtk-4.1-0 。 它不是什么冷门玩具,而是 GNOME

Qwen3-VL-8B Web系统完整指南:chat.html前端+proxy_server+vLLM全链路解析

Qwen3-VL-8B Web系统完整指南:chat.html前端+proxy_server+vLLM全链路解析 1. 系统概览:一个开箱即用的AI聊天工作流 你有没有试过部署一个真正能用、界面清爽、响应流畅的本地大模型聊天系统?不是那种跑通了但卡顿、报错、连不上、调不通的“半成品”,而是打开浏览器就能聊、输入就出结果、关机重启也不掉链子的完整体验? Qwen3-VL-8B Web系统就是为此而生——它不是概念验证,也不是开发中间件,而是一套可直接投入日常使用的端到端AI对话基础设施。从你在浏览器里点击chat.html那一刻起,消息就已悄然穿过代理层、抵达vLLM推理引擎、加载Qwen3-VL-8B模型、完成计算并实时返回,整个过程无需手动配置Nginx、不碰OpenAPI密钥、不改一行前端AJAX地址。 它把三个常被割裂的部分——看得见的界面、管得着的流量、算得快的模型——严丝合缝地拧成一股绳。前端不裸连后端,后端不直面浏览器,所有通信都经由proxy_server.py统一调度。这种设计看似多了一层,实则换来三重确定性: * 你改前端CSS,不影响后端启动; *

人工复核好帮手!Qwen3Guard-Gen-WEB辅助决策

人工复核好帮手!Qwen3Guard-Gen-WEB辅助决策 在生成式人工智能加速落地的当下,内容安全已成为企业部署大模型不可忽视的核心环节。从社交平台到智能客服,从教育应用到政务系统,任何开放性交互场景都可能面临潜在风险:隐性歧视、不当引导、隐私泄露甚至政治敏感内容。传统的关键词过滤和规则引擎已难以应对语义复杂、表达多变的“灰色地带”问题。 阿里云推出的 Qwen3Guard-Gen-WEB 镜像,正是为解决这一挑战而生。它基于开源的安全审核专用大模型 Qwen3Guard-Gen-8B 构建,并集成了可视化 Web 推理界面,使非技术人员也能快速上手进行内容风险评估。本文将深入解析该镜像的技术原理、核心能力与实际应用场景,重点探讨其如何成为人工复核环节的高效辅助工具。 1. 技术背景:为什么需要专用安全审核模型? 1.1 传统审核方式的局限性 长期以来,内容审核主要依赖两种手段: * 关键词匹配:通过正则表达式或黑名单词库识别违规内容; * 轻量级分类模型:使用 BERT 等小型模型做二分类(安全/不安全)。 这些方法虽具备响应快、成本低的优点,但在面对现代 A