【Git】 远程操作 与 标签管理

【Git】 远程操作 与 标签管理

目录

一、远程操作

1.1 分布式版本控制系统

分布式版本控制系统 :简单理解就是 一台中央服务器仓库,连接多台本地服务器仓库。可以实现多名开发者查看各自的代码。

1.2 克隆远程仓库git clone [地址链接]

使用SSH协议:第⼀步:创建SSH Key。在⽤⼾主⽬录下,看看有没有.ssh⽬录,如果有,再看看这个⽬录下有没有
id_rsa 和 id_rsa.pub 这两个⽂件,如果已经有了,可直接跳到下⼀步。如果没有,需要创建SSH Key: ssh-keygen -t rsa -C "自己gitee的邮箱"


在⽤⼾主⽬录⾥找到 .ssh ⽬录,⾥⾯有 id_rsa 和 id_rsa.pub 两个⽂件,这两个就是SSH Key的秘钥对。将id_rsa.pub的内容复制进公钥配置就可以了。

使用HTTPS协议:使⽤ HTTPS ⽅式时,没有要求,可以直接克隆下来。git clone [地址链接]

1.3 向远程仓库推送git push <远程主机名> <本地分⽀名>:<远程分⽀名>

1.4 拉取远程仓库git pull <远程主机名> <远程分⽀名>:<本地分⽀名>

1.5 忽略特殊文件

在⽇常开发中,我们有些⽂件不想或者不应该提交到远端,⽐如保存了数据库密码的配置⽂件,那怎么让 Git 知道呢?在 Git ⼯作区的根⽬录下创建⼀个特殊的 .gitignore ⽂件,然后把要忽略的⽂件名填进去,Git 就会⾃动忽略这些⽂件了。

# 省略选择模本的内容 # My configurations:*.ini*.so

例如我们想忽略以 .so 和 .ini 结尾所有⽂件, .gitignore 的内容如下:

当我们就是要提交一个被配置忽略了的文件时,使用git add -f [文件名] 也可以在 .gitignore ⽂件文件中选择不排除的文件,文件名前面加上一个感叹号即可。

当我们的配置写太多了,我们新建的文件,工作区文件可以使用git check-ignore -v [文件名]查看是不是被忽略以及忽略原因。

配置命令别名:将 git status 简化为 git st ,对应的命令为:git config --global alias.st status --global 全局生效

二、标签管理

标签 tag ,可以简单的理解为是对某次 commit 的⼀个标识,相当于起了⼀个别名。例如,在项⽬发布某个版本的时候,针对最后⼀次 commit 起⼀个 v1.0 这样的标签来标识⾥程碑的意义。

命令 git tag [标签名] 就可以打⼀个最近一次提交的标签。
命令 git tag [标签名] [commit_id] 对这个commit id对应的提交打标签。
git tag -a [name] -m "XXX" [commit_id]Git 还提供可以创建带有说明的标签,⽤-a指定标签名,-m指定说明⽂字。
命令 git tag 查看所有标签:

git show [标签名]查看标签具体信息:
git tag -d [标签名] 删除标签

git push origin <标签名>推送标签到远程仓库

git push origin --tags推送本地所有标签到远程仓库

如果标签已经推送到远程,要删除远程标签就⿇烦⼀点,先从本地删除 git tag -d [标签名],然后,从远程删除。删除命令也是push,但是格式如下:git push origin :[标签名]

Read more

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合 在本地跑一个大模型,第一步不是写代码、调参数,而是——等它下载完。 这听起来有点荒诞,却是许多中国开发者的真实日常。当你兴致勃勃地打开终端,输入 ollama run llama3:8b,满心期待地准备开启微调之旅时,现实却给你泼了一盆冷水:进度条纹丝不动,网络连接频繁中断,几个小时过去连基础权重都没拉下来。 问题出在哪?根源就在于——Ollama 默认从 HuggingFace 官方仓库拉取模型,而这个服务器远在海外。对于国内用户来说,这无异于“越洋取经”,不仅速度慢如龟爬,还常因网络波动导致失败重试,白白浪费时间和算力资源。 但其实,我们完全不必硬扛这条路。真正聪明的做法是:绕开公网瓶颈,借助国内镜像高速获取模型 + 使用 LLama-Factory 实现低门槛、高效率的本地微调。这套组合拳不仅能让你把“等待下载”的时间省下来喝杯咖啡,还能让7B甚至13B级别的模型在一张消费级显卡上顺利训练起来。 镜像加速:别再用裸连 HuggingFace

By Ne0inhk
2026年各大高校AIGC检测政策汇总(持续更新)

2026年各大高校AIGC检测政策汇总(持续更新)

2026年各大高校AIGC检测政策汇总(持续更新) 2026年毕业季正式来临,AIGC检测已经不再是"可能会查",而是"一定会查"。从去年下半年到现在,全国高校密集出台了一系列针对论文AI生成内容的检测政策。本文将为大家做一个尽可能全面的汇总,方便同学们快速了解自己学校的要求,提前做好准备。 本文持续更新,建议收藏。 2026年高校AIGC检测的整体趋势 在详细列出各高校政策之前,先给大家概括一下今年的整体形势: 三大核心变化 1. 检测范围全覆盖:不再只是抽检,而是全部论文必查AIGC 2. 检测标准趋严:AI率阈值从去年普遍的30%收紧到20%甚至10% 3. 处罚力度加大:从"修改后重新提交"升级到"延期答辩"甚至"取消答辩资格" 主要检测平台分布 * 知网AIGC检测系统:覆盖约60%的985/211高校

By Ne0inhk
开源浪潮下的中国力量:文心一言大模型本地部署与应用全攻略

开源浪潮下的中国力量:文心一言大模型本地部署与应用全攻略

文章目录 * 一、前言 * 1.1 模型开源意义与背景 * 1.2 文心一言大模型简介 * 1.3 测评目标与思路 * 二、文心一言大模型 * 2.1 文心一言开源概况 * 2.2 文心一言大模型技术综述 * 三、文心一言大模型深度解析 * 3.1 开源策略与生态影响 * 3.1.1 开源时间与版本介绍 * 3.2 模型特性与优势 * 四、部署实战:从 GitCode下载ERNIE-4.5-0.3B 模型到本地可交互服务 * 4.1 环境准备与部署方式 * 4.2 下载与安装步骤 * 4.3 调用示例与接口说明 * 编写部署测试脚本 * 五、

By Ne0inhk
VSCode扩展工具Copilot MCP使用教程【MCP】

VSCode扩展工具Copilot MCP使用教程【MCP】

MCP(Model Context Protocol,模型上下文协议) ,2024年11月底,由 Anthropic 推出的一种开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议。本文章教你使用VSCode扩展工具Copilot MCP快速上手MCP应用! 1. VSCode中安装Copilot MCP Copilot MCP是一个适用于 VSCode 的 MCP Client。 2. Copilot MCP使用 安装之后会出现Coplilot授权,并在左侧菜单中出现MCP Server按钮 3. Add Server 点击Add Server,MCP Server分为两种建立方式,Process和SSE 以Process为例,输入必要信息: 其中Server Name是你给Server起的任意名字,需要注意的是Start Command。 这里我的输入为: npx -y @modelcontextprotocol/server-filesystem /path 注意path修改为自己的文件路径,

By Ne0inhk