TRAE、VSCode上进行git管理

最近在学习Node.js,但是对TRAE/VSCode的git操作有点不太会,因此记录一下,如有不对,请指出。

我这里使用的是TRAE演示,VSCode应该差不多。

首先是从github,或者gitee上将项目clone下来。看图操作

在这里插入图片描述


此时会在页面最上方显示一个弹窗,输入你的项目地址

在这里插入图片描述


选择你的项目存放路径

在这里插入图片描述

稍等片刻后,项目就clone到你本地了。

在这里插入图片描述


使用TRAE/VSCode打开项目。

一般项目会有很多分支,比如主分支,上线版本分支,需求分支,开发分支,咱们举个例子:

主分支:main(作为所有分支的主分支,会合并所有没有bug的代码)
版本分支:release_projectName_versionCode_date(一般用来归档项目版本节点,如果后期某个版本有线上Bug,就基于这个分支修改)
需求分支:feature_projectName_versionCode_main_date(一般有新需求了,就会新建这个分支)
开发分支:feature_projectName_versionCode_userName_date(每个开发者都新建自己的开发分支)

以上只是我在日常开发中使用的版本管理方式,不适用于所有人,这里只是为了后面的内容做铺垫。

当我们clone下来代码后,一般主分支,版本分支,需求分支都已经有了,我们只需要创建自己的开发分支就行。

按图示步骤创建开发分支

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

至此你的开发分支就创建完成了。此时TRAE/VSCode中显示的应该就是你的开发分支,如果不确定,可以在终端运行git branch确认一下。带*号的就是当前所在分支。

在这里插入图片描述


接下来看一下如何切换分支。

如图所示

在这里插入图片描述


选择你想切换的分支

在这里插入图片描述


当你在自己的开发分支修改了代码后,需要先提交到自己的分支,如图所示,点击提交。

在这里插入图片描述

再点击同步更改,这时候就推送到远程你的开发分支上了。

在这里插入图片描述


当你开发了新功能,你需要将你的代码合并到需求分支上,也就是feature_projectName_versionCode_main_date分支,首先你需要切换到需求分支上。

然后按图所示

在这里插入图片描述


选择你要合并的分支

在这里插入图片描述


最后推送到远程

在这里插入图片描述


这样你的代码就合并到需求分支了。

同样如果需要将别人合到需求分支上的代码,合并到你自己的开发分支,也是同样的操作,只不过是先切到自己的开发分支,然后点击合并,选择需求分支,最后再推送到自己的分支。

大概记录了一下,大部分步骤我都实际操作了一遍,应该没啥问题,如果大家遇到问题,欢迎指出,我及时修改,避免误导别人。

Read more

Llama-Factory如何设置warmup步数?线性增长策略推荐

Llama-Factory如何设置warmup步数?线性增长策略推荐 在大模型微调实践中,你是否遇到过训练刚开始 loss 就飙升到 NaN 的情况?或者前几个 epoch 损失剧烈震荡,导致最终性能不稳定?这类问题往往不是数据或模型结构的问题,而是学习率调度中一个关键细节被忽略了——warmup 步数的合理设置。 尤其在使用像 Llama-Factory 这样支持全参数微调、LoRA 和 QLoRA 的通用框架时,虽然上手门槛低,但如果对底层优化机制缺乏理解,很容易因为默认配置“跑不动”而误判工具本身的能力。其中,warmup 阶段的设计直接决定了模型能否平稳度过最脆弱的初始训练期。 为什么 warmup 如此重要? 现代大语言模型(LLM)通常拥有数十亿甚至上百亿参数,初始化权重是随机的。训练初期,梯度可能非常大且方向不稳定。如果此时直接使用较高的学习率进行更新,会导致参数跳跃幅度过大,破坏初始学习动态,甚至引发梯度爆炸。 Warmup 机制就是为了解决这个问题:它让学习率从接近零开始,在前若干步中逐步上升至预设的基础学习率。这个“预热”

By Ne0inhk
Chat took too long to get ready.Please ensure...<VSCode\Copilot>

Chat took too long to get ready.Please ensure...<VSCode\Copilot>

在VScode里面,应用Copilot提问,无法解决问题,该怎么解决呢? 1、在vscode里面,按键  ctrl + shift + p,输入setting,即看到setting.json文件 2、在setting.json文件中添加下面两行   "github.copilot.nextEditSuggestions.enabled": true,   "chat.extensionUnification.enabled":false, 参考图片25、26行 3、保存,重启vscode 4、重启后,点击vscode左下角人头像,查看是否有让授权Copilot的,如果有点击一下授权,解决!!! 如果这样无法解决,建议检查账号是不是不能使用Copilot功能了

By Ne0inhk
使用GpuGeek高效完成LLaMA大模型微调:实践与心得分享

使用GpuGeek高效完成LLaMA大模型微调:实践与心得分享

使用GpuGeek高效完成LLaMA大模型微调:实践与心得分享 🌟嗨,我是LucianaiB! 🌍 总有人间一两风,填我十万八千梦。 🚀 路漫漫其修远兮,吾将上下而求索。 随着大模型的发展,越来越多的AI开发者开始尝试对开源模型进行微调,以适配垂直场景需求。但由于训练资源昂贵、部署过程繁琐,很多人仍止步于“想做”阶段。 本文将结合我在 GpuGeek 平台 上对 LLaMA 模型的微调实践,分享完整流程、调优经验以及平台带来的优势,帮助更多开发者低门槛开启大模型实践之路。 注册链接:https://gpugeek.com/login?invitedUserId=753279959&source=invited 一、选型与准备 选择模型:LLaMA-7B Meta发布的LLaMA系列模型在性能与资源消耗之间取得了不错的平衡,适合作为个人或中小团队的定制基础模型。我选择了 LLaMA-7B,结合LoRA方法进行微调。 选择平台:GpuGeek 为什么选GpuGeek? ✅ 显卡资源充足、节点丰富:支持多种高性能GPU,

By Ne0inhk

开源还是商用?大模型选型终极指南与实战搭配

一、开源大模型 vs 商用大模型:该怎么选? 1. 概念和许可证上的差异 开源 / 开放权重大模型 模型权重(weights)公开,可下载、本地部署、二次训练。 多数采用 Apache 2.0、MIT 等宽松开源许可(如 Mistral 7B、Mixtral、Gemma、Falcon 等都是 Apache 2.0 或相近许可)。 也有“开放但非真正开源”的,如 Llama 3 / Llama 2:权重可下载,但许可证不是 OSI 认可的开源协议,商业使用有附加条款,需要阅读 Meta 的 Llama License。

By Ne0inhk