TRAE、VSCode上进行git管理

最近在学习Node.js,但是对TRAE/VSCode的git操作有点不太会,因此记录一下,如有不对,请指出。

我这里使用的是TRAE演示,VSCode应该差不多。

首先是从github,或者gitee上将项目clone下来。看图操作

在这里插入图片描述


此时会在页面最上方显示一个弹窗,输入你的项目地址

在这里插入图片描述


选择你的项目存放路径

在这里插入图片描述

稍等片刻后,项目就clone到你本地了。

在这里插入图片描述


使用TRAE/VSCode打开项目。

一般项目会有很多分支,比如主分支,上线版本分支,需求分支,开发分支,咱们举个例子:

主分支:main(作为所有分支的主分支,会合并所有没有bug的代码)
版本分支:release_projectName_versionCode_date(一般用来归档项目版本节点,如果后期某个版本有线上Bug,就基于这个分支修改)
需求分支:feature_projectName_versionCode_main_date(一般有新需求了,就会新建这个分支)
开发分支:feature_projectName_versionCode_userName_date(每个开发者都新建自己的开发分支)

以上只是我在日常开发中使用的版本管理方式,不适用于所有人,这里只是为了后面的内容做铺垫。

当我们clone下来代码后,一般主分支,版本分支,需求分支都已经有了,我们只需要创建自己的开发分支就行。

按图示步骤创建开发分支

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

至此你的开发分支就创建完成了。此时TRAE/VSCode中显示的应该就是你的开发分支,如果不确定,可以在终端运行git branch确认一下。带*号的就是当前所在分支。

在这里插入图片描述


接下来看一下如何切换分支。

如图所示

在这里插入图片描述


选择你想切换的分支

在这里插入图片描述


当你在自己的开发分支修改了代码后,需要先提交到自己的分支,如图所示,点击提交。

在这里插入图片描述

再点击同步更改,这时候就推送到远程你的开发分支上了。

在这里插入图片描述


当你开发了新功能,你需要将你的代码合并到需求分支上,也就是feature_projectName_versionCode_main_date分支,首先你需要切换到需求分支上。

然后按图所示

在这里插入图片描述


选择你要合并的分支

在这里插入图片描述


最后推送到远程

在这里插入图片描述


这样你的代码就合并到需求分支了。

同样如果需要将别人合到需求分支上的代码,合并到你自己的开发分支,也是同样的操作,只不过是先切到自己的开发分支,然后点击合并,选择需求分支,最后再推送到自己的分支。

大概记录了一下,大部分步骤我都实际操作了一遍,应该没啥问题,如果大家遇到问题,欢迎指出,我及时修改,避免误导别人。

Read more

量化、算子融合、内存映射:C语言实现AI推理的“三板斧“

量化、算子融合、内存映射:C语言实现AI推理的“三板斧“

量化、算子融合、内存映射:C语言实现AI推理的"三板斧" 摘要:做嵌入式AI开发的同学,大概率都遇到过这样的困境:训练好的AI模型(比如CNN),在PC上用TensorFlow/PyTorch跑起来流畅丝滑,可移植到单片机、MCU等边缘设备上,要么内存爆掉,要么推理延迟高到无法使用——毕竟边缘设备的资源太有限了:几百KB的RAM、几MB的Flash、没有GPU加速,甚至连浮点运算都要靠软件模拟。这时,依赖庞大的深度学习框架就成了“杀鸡用牛刀”,甚至根本无法运行。而C语言,作为嵌入式开发的“母语”,凭借其极致的性能控制、内存可控性和无 runtime 依赖的优势,成为边缘设备AI推理引擎的最佳选择。但纯C语言实现AI推理,绝不是简单地“用C重写框架代码”,关键在于掌握三大核心优化技术——这就是我们今天要讲的AI推理“三板斧”:量化、算子融合、内存映射。 它们三者协同作用,能从“体积、速度、内存”三个维度彻底优化AI推理性能:

By Ne0inhk
无线联邦学习:在保护隐私的无线网络中,让AI协同进化

无线联邦学习:在保护隐私的无线网络中,让AI协同进化

🔥作者简介: 一个平凡而乐于分享的小比特,中南民族大学通信工程专业研究生,研究方向无线联邦学习 🎬擅长领域:驱动开发,嵌入式软件开发,BSP开发 ❄️作者主页:一个平凡而乐于分享的小比特的个人主页 ✨收录专栏:无线通信技术,本专栏介绍无线通信相关技术 欢迎大家点赞 👍 收藏 ⭐ 加关注哦!💖💖 无线联邦学习:在保护隐私的无线网络中,让AI协同进化 一、什么无线联邦学习? 想象这样一个场景:全国各地的医院都想联合训练一个AI模型来诊断疾病,但患者的医疗数据极其敏感,不能离开医院。传统方法是把所有数据集中到一个中心服务器,但这会造成隐私泄露风险。怎么办? 无线联邦学习就像一位“知识快递员”——它不收集原始数据,而是让各地的医院在本地训练模型,然后只把模型“更新心得”(梯度或参数)通过无线网络传给中心服务器,由服务器汇总大家的智慧,形成一个更强大的模型。 核心思想 * 数据不动模型动:原始数据永远留在本地设备 * 仅上传模型更新:只传输学习到的参数,而非数据本身 * 无线传输媒介:通过Wi-Fi、5G等无线网络进行通信 本地设备3 本地设备2 本地设

By Ne0inhk
【企业级】RuoYi-Vue-Plus AI 智能开发助手 | Claude Code + Codex 双引擎 | 40+ 专业技能包 | 10 大快捷命令 | 开箱即用

【企业级】RuoYi-Vue-Plus AI 智能开发助手 | Claude Code + Codex 双引擎 | 40+ 专业技能包 | 10 大快捷命令 | 开箱即用

RuoYi-Vue-Plus AI 智能编程助手 商品简介 基于 RuoYi-Vue-Plus 5.X 企业级后端框架,深度定制的 AI 智能编程助手配置包。支持 Claude Code 和 OpenAI Codex 双 AI 引擎,内置 40+ 专业开发技能、10 大快捷命令、智能钩子系统,让 AI 真正理解您的项目架构和开发规范,实现 10 倍开发效率提升。 核心亮点 🚀 双 AI 引擎支持 引擎配置目录说明Claude Code.claude/Anthropic Claude 官方 CLI 工具配置OpenAI Codex.codex/OpenAI Codex CLI

By Ne0inhk
Miniforge详细安装教程(macOs和Windows)

Miniforge详细安装教程(macOs和Windows)

(注:主要是解决商业应用anaconda收费问题,这是轻量级的代替,个人完全可以使用anaconda和miniconda)            Miniforge 是一个轻量级的包管理器,类似于 Anaconda 和 Miniconda。它主要用于安装基于 conda 的 Python 环境,专注于兼容 ARM 架构的设备(如 Apple M1/M2 /M3芯片)和其它 CPU 架构。Miniforge 使用 conda-forge 作为默认的包管理渠道。下面是如何在不同系统中安装 Miniforge 的步骤。下面这些是本人安装过程出现的一些问题,及解决办法。 1. 在 macOS 和 Linux 上安装 Miniforge 步骤 1:下载 Miniforge 1. 访问 Miniforge GitHub

By Ne0inhk