字节跳动 AI 原生 IDE Trae 安装与上手图文教程

字节跳动 AI 原生 IDE Trae 安装与上手图文教程

文章目录


一、 什么是 Trae?

简单来说,Trae 是字节跳动近期推出的一款 AI 原生集成开发环境 (IDE)。你可以把它看作是国内打磨极佳的 Cursor 或 Windsurf 替代品。它从底层架构开始就围绕 AI 能力构建,不仅能自动补全代码,还能直接听懂你的大白话,帮你从零开始写项目、修 Bug、甚至一键部署后端服务。

核心亮点:

  • 完全免费:目前处于免费阶段,对于动辄几十美元一个月的 AI 开发工具来说,性价比拉满。
  • 顶级大模型接入:国内版搭载了 Doubao-1.5-pro,并且支持无缝切换满血版 DeepSeek-R1 & V3 等顶级模型。
  • 双核驱动
    • Builder 模式:AI 自动编写代码、跨文件修改、运行终端命令,实现真正的代码“自动驾驶”。
    • Chat 模式:与 AI 对话,解答代码疑问,提供优化建议。
  • 完美兼容 VS Code:支持一键导入 VS Code 的配置、快捷键和海量插件,无缝迁移,零学习成本。

没问题,加入价格对比后,这两个版本的差异会更加直观,也正中很多开发者的痛点(毕竟大家都很关心到底要不要花钱)。

国际版与国内版区别

Trae 国内版 (CN版)Trae 国际版 (Global版)
官方网址trae.com.cntrae.ai
价格与收费完全免费(目前处于推广红利期,国内顶级模型及各项功能均免费畅享)免费额度 + 阶梯订阅制(提供免费基础档;进阶按月收费,如 Lite 档 $3/月,Pro 档 $10/月起,享更多高级模型用量和无限代码补全)
内置大模型Doubao-1.5-pro, DeepSeek-V3, DeepSeek-R1 等Claude 3.5/3.7 Sonnet, GPT-4o 等海外第一梯队闭源模型
网络环境国内直连,响应速度极快且稳定需具备海外网络访问能力(需配置科学网络环境)
账号与登录手机号、微信扫码、火山引擎账号等Google 账号、海外邮箱、Apple ID 等
语言与本地化默认简体中文,深度优化国内开发语境支持中/英双语,面向全球开发者生态

二、 下载与环境准备

第一步:访问官网下载

  1. 在首页根据你的操作系统(Windows 或 macOS)点击对应的下载按钮,将安装包下载到本地。

打开浏览器,访问 Trae 官方网站:https://www.trae.cn/

在这里插入图片描述
注意:目前 Trae 已全面支持 macOS(Apple Silicon/Intel)和 Windows 系统,macOS 用户如果系统版本低于 12,需要在官网底部寻找历史版本下载链接。

第二步:系统安装

  • macOS 用户:双击打开 .dmg 文件,将 Trae 图标拖拽到 Applications(应用程序)文件夹中即可。

Windows 用户:双击下载的 .exe 安装包,按照向导提示,选择安装路径并点击“下一步”即可完成安装。

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

第三步:首次启动与初始化配置

  1. 打开 Trae:首次启动时,界面会弹出一个极简的引导窗口。
  2. 账号登录:你可以选择使用手机号或相关账号进行快捷登录。

安装命令行工具:建议在引导页勾选“在终端中安装 trae 命令”,方便后续直接在终端通过输入 trae . 快速在当前目录唤醒 IDE。

在这里插入图片描述
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

环境迁移(建议)
如果你之前是 VS Code 的重度用户,Trae 会贴心地提示你一键导入 VS Code 的设置、主题和扩展插件。点击确认后,你的开发环境会 1:1 完美复刻过来。
提示:如果遇到极个别不兼容的插件,可以在 Trae 左侧的“插件市场”面板中手动搜索替换,或通过 .vsix 文件本地导入。

在这里插入图片描述

三、 核心功能上手实战

安装完成后,我们来实操一下,让 Trae 的 AI 帮我们写一个简单的“贪吃蛇游戏”,感受一下“用嘴编程”。

  1. 新建项目:在电脑里新建一个空文件夹,例如命名为 SnakeGame,并用 Trae 打开它。
  2. 唤醒 AI Builder:在界面侧边栏中,找到 Builder 面板(也可以使用快捷键 Cmd/Ctrl + U 快速唤出)。
  3. 见证奇迹
    发送指令后,你会看到 Trae 开始接管工作:它会自动分析需求,在左侧目录创建 index.htmlstyle.cssscript.js 文件,并像一个真人程序员一样逐行写入代码。
  4. 调试与修改:代码生成完毕后,你可以直接预览效果。如果发现任何问题(比如“蛇撞墙没有触发游戏结束”),不要自己改代码!直接在 Builder 聊天框里对它说:“游戏结束的逻辑有 Bug,蛇撞墙没有停止”,它会自动定位到出错的代码块并帮你修复。

输入自然语言指令
在输入框中告诉 AI 你的需求,例如:

“帮我用 HTML、CSS 和 JavaScript 写一个经典的贪吃蛇网页游戏。要求:包含计分板,吃到食物后蛇的移动速度会变快,界面风格要现代化、极简主义。请帮我创建所有必要的文件并完成代码编写。”

四、 进阶技巧:如何切换满血大模型

Trae 非常灵活的一点在于模型切换。在聊天面板的顶部(输入框上方区域),你可以看到一个模型切换下拉菜单

  • 日常开发、写注释、简单逻辑:使用默认模型,响应速度极快,足够应付 80% 的场景。
  • 遇到复杂算法、晦涩报错、重构大段代码:果断在菜单中切换到 DeepSeek-R1(开启深度思考模式)。利用 R1 强大的逻辑推理能力,可以帮你精准解决疑难杂症。

五、 总结

字节跳动这款 Trae 很好地填补了国内好用且免费的 AI 原生 IDE 的空白。它不仅让资深开发者免去了繁琐的增删改查等体力劳动,也让零基础的新手有了快速验证想法的工具。目前产品正处于红利期,内置的高级大模型都可以免费使用,强烈建议各位开发者下载体验!

你在安装和使用 Trae 的过程中感觉如何?有没有遇到什么好玩的 AI 编程技巧?欢迎在评论区留言讨论!

Read more

OpenClaw-多飞书机器人与多Agent团队实战复盘

OpenClaw-多飞书机器人与多Agent团队实战复盘

OpenClaw 多飞书机器人与多 Agent 团队实战复盘 这篇文章完整记录一次从单机安装到多机器人协作落地的真实过程: 包括 Windows 安装报错、Gateway 连通、模型切换、Feishu 配对、多 Agent 路由、身份错位修复,以及最终形成“产品-开发-测试-评审-文档-运维”团队。 一、目标与结果 这次实践的目标很明确: 1. 在 Windows 上稳定跑通 OpenClaw 2. 接入飞书机器人 3. 做到一个机器人对应一个 Agent 角色 4. 支持多模型并行(OpenAI + Ollama) 5. 最终形成可执行的多 Agent 团队 最终落地状态(已验证): * 渠道:Feishu 多账号在线 * 路由:按 accountId

FPGA光通信2——Aurora 64B/66B的开发使用

FPGA光通信2——Aurora 64B/66B的开发使用

可参考GZH:小蘇的FPGA         FPGA光通信的开发过程中,最简便的方式为Aurora 64B66B,开发人员无需关注2bit同步头,加解扰等过程,开放给开发人员的主要是AXI-Stream用户数据接口。         Aurora是一款可扩展的轻量级、高数据速率链路层高速串行通信协议,支持全双工或单工,支持64B/66B,8B/10B编码。 一、Aurora 64B/66B使用介绍         该核的使用架构主要如下:借助xilinx 核,开发人员可根据用户接口实现多通道间的光通信。最大支持16lane。 1.1 、IP核的介绍         参考PG074, 该核的内部结构如下:         其中,Lane logic:每个GT收发器由一个lane逻辑模块实例驱动,初始化每个收发器,处理控制字符的编解码,并执行错误检测。         Global logic: 全局逻辑模块执行通道绑定以进行通道初始化。在运行过程中,该通道跟踪Aurora 64B/66B协议定义的Not Ready空闲字符,并监控所有通道逻辑模块的错误。

LazyLLM 测评 | 低代码颠覆 AI 开发!代码专家智能体进阶模块实战

LazyLLM 测评 | 低代码颠覆 AI 开发!代码专家智能体进阶模块实战

摘要: LazyLLM 是商汤大装置推出的开源低代码框架,作为构建和优化多 Agent 应用的一站式开发框架,覆盖应用搭建、数据准备、模型部署、微调、评测等全流程开发环节,提供丰富的工具支持。其以模块化设计打破传统开发壁垒,通过数据流驱动重构开发逻辑,能让开发者用极简代码实现工业级复杂 AI 应用,摆脱冗余编码束缚,聚焦核心业务场景,降低 AI 应用构建成本并支持持续迭代优化。堪称 AI 开发者的 “效率神器”,其技术普惠理念为 AI 开发领域带来新的实践范式,推动了更高效的开发模式。本文将以Python编程为切入点,带你深入了解LazyLLM框架。 LazyLLM 是构建和优化多 Agent 应用的一站式开发工具,为应用开发过程中的全部环节(包括应用搭建、数据准备、模型部署、模型微调、评测等)提供了大量的工具,协助开发者用极低的成本构建 AI 应用,并可以持续地迭代优化效果。 LazyLLM作为商汤大装置推出的开源低代码框架,简直是AI开发者的“效率神器”

FPGA自适应滤波完全指南:从LMS到RLS算法实现(附Verilog代码与实战案例)

FPGA自适应滤波完全指南:从LMS到RLS算法实现(附Verilog代码与实战案例) 📚 目录导航 文章目录 * FPGA自适应滤波完全指南:从LMS到RLS算法实现(附Verilog代码与实战案例) * 📚 目录导航 * 概述 * 一、自适应滤波基础概念 * 1.1 什么是自适应滤波 * 1.2 自适应滤波与传统滤波的区别 * 1.3 自适应滤波的应用场景 * 1.4 自适应滤波器的基本结构 * 1.5 自适应滤波的工作原理 * 二、LMS算法详解 * 2.1 LMS算法原理 * 2.2 LMS算法数学推导 * 2.3 LMS算法的FPGA实现 * 2.4 LMS算法的性能分析 * 三、NLMS与变步长LMS算法 * 3.1 NLMS算法原理 * 3.2 变步长LMS算法 * 3.