告别繁琐配置!用 Trae Remote-SSH 轻松远程开发和部署

告别繁琐配置!用 Trae Remote-SSH 轻松远程开发和部署

目录

开发者的痛点:本地环境 VS 远程环境的开发难题

在远程服务器上开发通常面临以下问题:

  • 环境不一致:本地环境和远程环境的依赖不同,导致代码运行异常。
  • 调试不便:传统的 SSH 连接无法提供现代 IDE 的代码补全、调试等功能。
  • 代码同步繁琐:手动上传/拉取代码,影响开发效率。

Trae 国内版上新功能了

Trae 是一款由字节跳动推出的免费 AI IDE,它深度整合了 AI 技术,旨在提升开发效率。 它支持中文,并集成了主流 AI 模型,国内版使用豆包大模型和 DeepSeek 模型。

之前的文章中介绍过trae:零代码开发者的狂欢:用Trae 3分钟复刻「2048」秀翻全场,具体AI功能可以看前一篇文章,本期我们来看一下Trae国内版上线的新功能

Trae Remote-SSH 解决方案

Trae 国内版最近上新了远程资源管理功能(Remote SSH),实属开发者福音,很好的解决了我们远程开发和部署的困境。

Trae Remote-SSH 允许我们在本地 PC 直接访问和操作远程主机的文件,而无需存储远程代码,就像操作本地项目一样。通过这一功能,可以协助我们提升体验:

  • 无缝连接远程服务器:直接在本地 IDE 中开发远程代码,无需手动同步。
  • 完整 IDE 体验:支持代码补全、调试、智能提示、AI 辅助等功能。
  • 自动安装 Trae 服务器端:连接时自动安装 Trae Server,确保使用体验与本地一致。

Trae Remote-SSH 运行原理

本地 PC 运行 Trae 客户端,远程主机安装 Trae 服务器端,二者通过 SSH 通道通信。

在这里插入图片描述

设备要求

设备要求
本地 PC安装 OpenSSH 兼容的 SSH 客户端,操作系统可为 macOS 或 Windows。
远程主机仅支持 Linux,建议使用 Ubuntu 20.04+ 或 Debian 11+,至少 1GB RAM,推荐 2GB RAM + 2 核 CPU。

⚠️ 注意:

  • 旧版本(如 Debian 8、Ubuntu 16)可能存在兼容性问题。
  • 远程主机需启用 SSH 服务,并具备出站 HTTPS 访问能力(端口 443)。

步骤 1:打开远程资源管理器

  • 在 Trae 的远程资源管理器中,点击 + 按钮。
  • 在弹出的面板中输入 SSH 连接命令,例如:
ssh user@remote-server 
  • 按回车键,远程主机将出现在连接目标列表。

步骤 2:连接远程主机

  • 右下角点击 连接主机,或者在列表中点击远程主机右侧的 在新窗口连接。
  • 输入密码或使用 SSH 密钥进行连接。
  • 连接成功后,Trae 会自动安装服务端。

步骤 3:打开远程文件夹,开始开发

  • 你可以在本地 PC 上直接编辑远程代码,并享受 Trae 提供的 AI 辅助和调试功能。
  • 通过 终端 > 新建终端,可以在远程服务器上执行命令。

实践 通过trae远程开发 贪吃蛇 项目

前置条件
  • 本地 PC:macOS,安装 OpenSSH。
  • 远程主机:Linux(推荐 Ubuntu 20.04+,2GB RAM,双核 CPU)。
  • 网络要求:远程主机需要能访问 HTTPS(端口 443)。
连接远程主机

打开 Trae 远程资源管理器,点击 “+” 添加 SSH 连接。

在这里插入图片描述

输入 ssh user@remote-server-ip 并回车。

在这里插入图片描述

在弹出的提示框中,输入密码或使用密钥认证。

在这里插入图片描述

连接成功后,界面左下角会显示远程主机地址。

在这里插入图片描述


选择远程文件夹,即可像本地一样编写代码。

通过本地trae远程编码

可以看到我本地通过tare的Builder模式进行自然语言交互,需要做一个贪吃蛇项目,结果项目和代码都在远程的服务器为我生成了,不要太爽啊!

查看服务器确实有了该项目

在这里插入图片描述
远程调试

代码中有问题的时候,直接选中然后在Builder中对话解决,并且trae会一直尝试解决问题,直到问题解决

在这里插入图片描述

一个简单的贪吃蛇游戏就通过trae的能力在远程搞定!

在这里插入图片描述

自定义模型接入能力

Chat和Builder模式下能自定义接入模型 实现多模态,下面我以硅基流动为例

1.点击添加模型选项

首次进入Builder模型下,可以看到需要先选择模型,有一个添加模型的选项

在这里插入图片描述

2.模型配置

由于硅基流动有一些免费额度的token可以用,所以我就以硅基流动为例

在这里插入图片描述

3.丝滑使用自定义模型

可以看到上面操作很简单便捷,已经可以在Builder模式下选中并使用自定义的deepseek模型了

在这里插入图片描述

AI 助力远程开发

Trae 结合 AI 功能,进一步提升开发效率:

  • 代码补全 & 纠错:智能提示代码,减少语法错误,提高编写效率。
  • 远程调试 & 日志分析:自动解析日志并提供优化建议。
  • 智能助手:根据上下文生成代码、优化 SQL 查询、快速跳转到代码关键位置等。

1.全自然语言项目初始化

  • 零代码起手式
  • Trae Builder模式响应
    • 自动生成项目结构(对比传统脚手架工具)
  • 智能识别远程Python版本(3.8→自动适配walrus运算符)

2.智能编码全流程演示

  • 上下文感知补全
  • 跨文件调试黑科技

3.混合编程模式进阶

  • 自然语言微调
"当前蛇移动速度调整不够平滑,请添加加速度机制: - 每吃5个食物速度提升10% - 最高不超过初始速度3倍"

AI生成代码差异对比:

+ self.base_delay =0.2+ self.speed_boost =1.0defcheck_speed(self):
  • 跨平台测试

4.远程部署一体化

  • 依赖智能解决
 Trae自动生成的requirements.txt curses-menu==2.1.0 → 检测到远程缺库自动替换为windows-curses 
  • 一键热更新
"将当前版本推送到测试服务器192.168.1.100"

执行过程:
a. 自动识别.gitignore规则
b. 通过SSH通道增量同步
c. 执行远程pip install -r requirements.txt

5.开发者效率革命

  • 与传统工作流对比
环节传统方式trae方案耗时比
环境搭建手动SSH+配置Python环境自动识别+依赖修复3 :1
功能开发VIM调试+本地IDE切换实时联合调试5 :1
跨平台验证多机器复制测试条件分支自动生成4 :1
异常处理grep日志+StackOverflow上下文感知建议6 :1

总结 & 个人体验

Trae Remote-SSH 让远程开发变得更加简单高效:

  • 无需手动同步代码。
  • 享受本地级别的开发体验。
  • AI 助力提高开发效率。

技术决策者的认知升维

传统困境 vs 智能解法

挑战维度旧范式Trae新范式
环境一致性文档驱动的人工检查GitOps+AI校验双保险
知识传承Confluence文档坟墓可执行的AI工作流模板
故障定位日志考古实时拓扑感知+根因定位
资源利用率静态分配弹性调度

演进路线预判

在这里插入图片描述

致开发者同仁的推荐信

对于开发者而言,Trae Remote-SSH 解决了远程开发的诸多痛点,让远程服务器的开发体验接近本地环境,是现代开发者不可或缺的利器。

选择Trae Remote-SSH的三重必然性:

  1. 技术债务对冲工具:每一行AI生成的代码都自带技术规范检查(SonarQube集成示例)
  2. 架构师能力放大器
    通过自然语言实现设计模式注入:
"在用户服务模块实施CQRS模式" → 自动生成Command/Query分离结构 → 附带Event Sourcing实现方案 
  1. 职业生涯护城河
  • 早期接触智能协作范式
  • 掌握下一代IDE扩展机制

此刻的行动建议: 使用并体验Trae Remote-SSH ,使用这颠覆性的革命工具,加快走在技术前沿的步伐!

Read more

如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

如何通过 3 个简单步骤在 Windows 上本地运行 DeepSeek

它是免费的——社区驱动的人工智能💪。         当 OpenAI 第一次推出定制 GPT 时,我就明白会有越来越多的人为人工智能做出贡献,并且迟早它会完全由社区驱动。         但从来没有想过它会如此接近😂让我们看看如何在 Windows 机器上完全免费使用第一个开源推理模型!  步骤 0:安装 Docker 桌面         我确信很多人已经安装了它,所以可以跳过,但如果没有 — — 这很简单,只需访问Docker 的官方网站,下载并运行安装 👍         如果您需要一些特定的设置,例如使用 WSL,那么有很多指导视频,请查看!我将继续下一步。 步骤 1:安装 CUDA 以获得 GPU 支持         如果您想使用 Nvidia 显卡运行 LLM,则必须安装 CUDA 驱动程序。(嗯……是的,它们需要大量的计算能力)         打开CUDA 下载页面,

By Ne0inhk
在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

在 VSCode 中本地运行 DeepSeek,打造强大的私人 AI

本文将分步向您展示如何在本地安装和运行 DeepSeek、使用 CodeGPT 对其进行配置以及开始利用 AI 来增强您的软件开发工作流程,所有这些都无需依赖基于云的服务。  步骤 1:在 VSCode 中安装 Ollama 和 CodeGPT         要在本地运行 DeepSeek,我们首先需要安装Ollama,它允许我们在我们的机器上运行 LLM,以及CodeGPT,它是集成这些模型以提供编码辅助的 VSCode 扩展。 安装 Ollama Ollama 是一个轻量级平台,可以轻松运行本地 LLM。 下载Ollama 访问官方网站:https://ollama.com * 下载适合您的操作系统(Windows、macOS 或 Linux)的安装程序。 * 验证安装 安装后,打开终端并运行: ollama --version  如果 Ollama 安装正确,

By Ne0inhk
DeepSeek-R1是真码农福音?我们问了100位开发者……

DeepSeek-R1是真码农福音?我们问了100位开发者……

从GitHub Copilot到DeepSeek-R1,AI编程工具正在引发一场"效率革命",开发者们对这些工具的期待与质疑并存。据Gartner预测,到2028年,将有75%的企业软件工程师使用AI代码助手。 眼看着今年国产选手DeepSeek-R1凭借“深度思考”能力杀入战场,它究竟是真码农福音还是需要打补丁的"潜力股"? ZEEKLOG问卷调研了社区内来自全栈开发、算法工程师、数据工程师、前端、后端等多个技术方向的100位开发者(截止到2月25日),聚焦DeepSeek-R1的代码生成效果、编写效率、语法支持、IDE集成、复杂代码处理等多个维度,一探DeepSeek-R1的开发提效能力。 代码生成效果:有成效但仍需提升 * 代码匹配比例差强人意 在代码生成与实际需求的匹配方面,大部分开发者(58人)遇到生成代码与实际需求完全匹配无需修改的比例在40%-70%区间,12人遇到代码匹配比例在70%-100%这样较高的区间。 然而,有30人代码匹配比例低于40%。这说明DeepSeek-R1在代码生成方面有一定效果,但在部分复杂或特定场景下,仍有很大的提升空间。

By Ne0inhk
AI+游戏开发:如何用 DeepSeek 打造高性能贪吃蛇游戏

AI+游戏开发:如何用 DeepSeek 打造高性能贪吃蛇游戏

文章目录 * 一、技术选型与准备 * 1.1 传统开发 vs AI生成 * 1.2 环境搭建与工具选择 * 1.3 DeepSeek API 初步体验 * 二、贪吃蛇游戏基础实现 * 2.1 游戏结构设计 * 2.2 初始化游戏 * 2.3 DeepSeek 生成核心逻辑 * 三、游戏功能扩展 * 3.1 多人联机模式 * 3.2 游戏难度动态调整 * 3.3 游戏本地保存与回放 * 3.4 跨平台移植 * 《Vue.js项目开发全程实录/软件项目开发全程实录》 * 编辑推荐 * 内容简介 * 作者简介 * 目录 一、

By Ne0inhk