【个人经验】使用 MobaXterm 连接服务器 + 环境配置 + 运行github代码

文章目录


使用 MobaXterm 连接服务器 + 环境配置 + 运行github代码

下载 MobaXterm

官网下载链接:https://mobaxterm.mobatek.net/


SSH 连接服务器

一般分两种情况:

情况一:直接 SSH 到服务器

在 terminal 输入:

ssh yourusername@server 

第一次登录会出现提示,输入 yes,然后输入密码即可。密码输入时不显示字符属于正常情况,原因是terminal会隐去密码的显示。

如果使用 MobaXterm:
点击左上角 Session → SSH,根据提示填写信息。登录后软件会询问是否保存密码,可按需选择。登录成功后左侧能看到自己的文件目录。退出时输入:

exit 

MobaXterm 会自动在左侧生成一个 User sessions,下次直接点击一下就可以登录,无需重新配置。


情况二:需要 VPN 或跳板机(如不在校园内)

  1. 使用 VPN:连上 VPN 后与情况一相同。
  2. 使用跳板机(两次 SSH):例如需要通过 xx.gateway
    可参考这篇文章进行配置:https://blog.ZEEKLOG.net/dou3516/article/details/125720341

修改密码(如账号由管理员创建)

登录后输入:

passwd 

按提示操作即可。


常见问题及解决方法

问题一:连接超时
ssh: connect to host xxxxx port 22: Connection timed out 

可能原因:

  • 网络防火墙:暂时关闭电脑防火墙后再尝试连接
  • 需要使用跳板机但尚未配置:参考情况二
问题二:域名无法解析
ssh: Could not resolve hostname xxxxx: Name or service not known 

如果你确定域名没写错,可能是解析问题。可向管理员要服务器的“数字 IP 地址”,再尝试连接。

问题三:学校 VPN 检查不通过(compliance check)

有些学校VPN对需要使用SSH的用户要求电脑启用了可识别的防病毒软件。你可能启用了无法识别的杀毒软件,例如联想电脑自带的“联想安全卫士”无法通过检测,关闭它、启用 Windows Defender 即可。

问题四:连接过程中突然断开或出现 keep-alive 信息

大概率是网络不稳定,可以尝试切换到有线网络。

其他:测试本地 SSH 是否正常

可使用公开测试环境:

ssh [email protected] -p 22 

密码:password


配置环境

参考:
https://www.cnblogs.com/asandstar/p/18113131/

安装 Anaconda

参考:
https://blog.ZEEKLOG.net/weixin_44709340/article/details/115185044

查看系统架构:

arch 

或使用更详细的:

lscpu 

查看服务器是否已有 conda:

which conda 

若输出为空,则需要自行安装到自己的用户目录下。

可以得到Linux服务器是32位(x86)还是64位(x86_64)的系统架构。

  1. 清华镜像地址:
    https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/
  2. bash运行安装脚本,条款一直回车直到结束。除了最后一个是否安装 VSCode 可选择否,其他全选yes就可以了。

测试安装:

which conda conda --version 

环境变量说明:
安装后检查 .bashrc

vim ~/.bashrc 

如果已看到 conda initialize 的内容,说明自动添加成功。
如果没有自动添加成功,那么则需要按i进入编辑模式,在最末尾输入:

export PATH=$PATH:/home/username/anaconda3/bin 

然后按esc,再输入:wq代表写入和退出文件。
两种情况添加完环境变量都需要执行:

source ~/.bashrc 

如果 wget 下载出现 403 forbidden,可本地下载 .sh 文件后使用scp命令上传。
在本地对应文件夹打开 PowerShell:

scp Anaconda3-version-Linux-x86_64.sh remote_username@remote_ip:remote_folder 

可以正确输出安装路径和安装版本即为安装成功。
如果仍然输出不了可以尝试一下关机重启。


创建虚拟环境

创建虚拟环境命令: conda create -n env-name python=3.10 

Python 过旧(例如3.7)会导致无法使用pip安装 torch,例如报错:

ERROR: No matching distribution found for torch==2.0.1 

查看 CUDA 信息

查看显卡支持的 CUDA 版本:

nvidia-smi 

查看安装的 CUDA Toolkit 版本:

nvcc --version 

安装对应版本的 PyTorch

可在官网查指令:
https://pytorch.org/get-started/locally/

或旧版本:
https://pytorch.org/get-started/previous-versions/

CUDA 一般可向下兼容。例如我的显卡为 CUDA 12.0,我选择安装 cu118 版本:

pip install torch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 --index-url https://download.pytorch.org/whl/cu118 
测试是否安装成功
  • 终端输入python进入python
  • 输入import torch检查pytorch是否安装成功,未输出任何报错即为成功;
  • 输入torch.cuda.is_available(),检查cuda是否正常和pytorch有联动。输出True即为成功。测试完输入Ctrl+D或者输入exit()退出python。
  • 如果弄错了,可以使用以下指令删除一个环境:
conda remove -n env-name --all 

检查是否已删除:

conda env list 

下载项目到服务器并使用 MobaXterm 运行

  1. 按项目 README 的指示运行相应脚本即可。

进入项目文件夹并激活环境:

cd projectname conda activate env-name 

克隆项目:

git clone https://github.com/username/projectname.git 

进入工作目录:

cd your/work/dir 

Read more

RTX 4090 加速国产 AIGC 视频生成:腾讯混元与阿里千问开源模型

RTX 4090 加速国产 AIGC 视频生成:腾讯混元与阿里千问开源模型

国产AIGC视频大模型正加速落地,RTX 4090凭借强大算力与大显存,成为本地部署腾讯混元、阿里通义万相等前沿视频生成模型的最佳选择,开启桌面级AI创作新时代。 目录 * 一、引言:国产AIGC视频大模型,桌面算力的新疆域 * 二、解锁潜能:RTX 4090与国产视频大模型的协同优势 * 三、项目解析:国产AIGC视频模型的创新之路 * 四、部署与环境搭建:国产模型的本地化实践 * 4.1 基础环境准备 * 4.2 模型部署流程:腾讯混元与阿里通义万相的本地化实战 * 4.3 ComfyUI 集成与优化 * 五、性能测试与对比:RTX 4090 的硬核实力 * 5.1 生成速度实测 (fps / s/frame) * 5.2 显存消耗与优化策略 * 六、实际应用场景:国产模型赋能创意工作流 * 七、

基于开源飞控pix的无人机装调与测试

基于开源飞控pix的无人机装调与测试

文章目录 * 前言 * 硬件使用说明 * 一、Hyper982 RTK模块 * 作为移动站使用 * 通过串口助手设置RTK参数(移动站) * 设置飞控参数(ArduPilot) * 设置飞控参数(PX4) * 资源下载 * 1、地面站软件和固件可执行文件 * 超维定制版HyperQGC(推荐) * NTRIP功能使用方法 * 基于超维定制版QGC和ArduPilot固件的领航跟随编队 * 多路视频流设置 * MQTT设置 * 地面站设置 * 4G模块配置 * MQTT服务器配置 * 飞控配置 * 海康威视相机云台控制 * 原版QGC地面站 * Mission Planner地面站 * PX4固件可执行文件 * ArduPilot固件可执行文件 * 2、安装好环境的虚拟机 * 安装虚拟机 * 打开虚拟机

理解 IDE 调用大模型(Cursor / Claude Code / Copilot / OpenClaw / Agent IDE) 的 session

理解 IDE 调用大模型(Cursor / Claude Code / Copilot / OpenClaw / Agent IDE) 的 session

一、Session 在 IDE 里的真实含义 在普通 ChatGPT 对话中: Session ≈ 一段聊天 但在 IDE 中: Session ≈ 当前开发工作空间的认知状态 它通常包含: ① 对话历史(Conversation Memory) 你之前说过什么: * 修改哪个模块 * 当前目标 * 已做决策 * 技术约束 模型通过这些推断你下一步意图。 ② 工程上下文(Code Context) IDE 会持续注入: * 当前打开文件 * 最近编辑文件 * git diff * 报错日志 * terminal 输出 * workspace 结构 所以 session 实际上是: 语言上下文 + 代码上下文 + 操作历史 ③ Agent 状态(关键) 在 Agent

LLaMA-Factory 大模型微调平台

LLaMA-Factory 大模型微调平台

目录 文章目录 * 目录 * LLaMA-Factory * LLaMA-Factory + Qwen3-7B + LoRA * 安装部署 * 准备数据集 * 执行微调 * 批量推理和训练效果评估 * LoRA 模型合并导出 * 部署运行微调后的大模型 LLaMA-Factory Llama-Factory 是基于 transformers 库开发的训练、微调、推理一体化平台,支持预训练、指令监督微调、奖励模型训练、PPO 训练、DPO 训练、KTO 训练、ORPO 训练等多种训练范式。支持使用 Accelerate 或 DeepSpeed 作为训练加速后端。 使用 Llama-Factory 进行微调非常简单,因为其最大的优势在于强大的数据处理与训练配置能力。只要按照官方的文档配置好环境,直接运行对应的脚本即可。 LLaMA-Factory + Qwen3-7B + LoRA 安装部署 * 容器安装 git clone