【2026 最新】下载安装 Git 详细教程 (Windows)

【2026 最新】下载安装 Git 详细教程 (Windows)

一、下载Git

1.下载网址:Git - Downloads (git-scm.com)​https://git-scm.com/downloads

网盘链接:

通过百度网盘分享的文件:Git-2.50.1-64-bit.exe
链接:https://pan.baidu.com/s/1lRrAifTBtCYXAA4qr31UkA?pwd=dy6bhttps://pan.baidu.com/s/1lRrAifTBtCYXAA4qr31UkA?pwd=dy6b提取码:dy6b

​​​​​​

2.等下载完成,找到下载文件的位置,双击打开安装向导

二、安装Git

1.许可声明点击Next

2.选择安装位置

记住这个位置接下来要用到

3.选择组件

勾选添加在桌面上,就是在桌面上添夹快捷方式更方便,建议选上,其他默认勾选的建议不要取消,否则可能造成某些功能不完整。点击Next

4.选择开始菜单文件夹

不用做更改,继续点击Next

5.选择Git默认编辑器

Git的默认编辑器为Vim,部分不熟悉Vim使用的,可以点击选择现代的GUI编辑器,如Notepad++等,无需修改点击进行下一步

 6.调整新存储库中初始分支的名称

默认创建存储库的初始分支为master,如果修改的话,可以选择第二个点击main,修改为想要的分支名,这里我默认 master

 7.调整Path环境

使用默认配置即可,点击“Next”按钮进入下一个安装界面。

  • 第一个是“仅从Git Bash只使用Git”。这是最安全的选择,因为PATH根本不会被修改,只能使用 Git Bash 的 Git 命令行工具,但是这将不能通过第三方软件使用。
  • 第二个是“从命令行以及第三方软件进行Git”。默认这个配置也是被推荐的,被认为是安全的,因为它仅向PATH添加了一些最小的Git包装器,以避免使用可选的Unix工具造成环境混乱。能够从Git Bash,命令提示符和Windows PowerShell以及在PATH中寻找Git的任何第三方软件中使用Git。
  • 第三个是“从命令提示符使用Git和可选的Unix工具”。警告:这将覆盖Windows工具,如“find 和sort ”。只有在了解其含义后才使用此选项。

8.选择SSH可执行文件

默认即可

 9.选择HTTPS传输后端

  • 第一个是使用OpenSSL库,服务器证书将使用ca-bundle.crt文件进行验证。
  • 第二个使用本机Windows安全通道库,服务器证书将使用Windows证书存储进行验证。

使用第一个HTTP连接

10.配置行结束转换

选择默认选项Checkout Windows-style, commit Unix-style line endings即可。

  • Checkout Windows-style, commit Unix-style line endings

在检出(checkout)文本文件时,Git会将行尾符号 LF (Unix风格)自动转换为 CRLF (Windows风格)。而在提交(commit)文本文件时,Git会将行尾符号 CRLF 转换回 LF。这适用于跨平台项目,特别是在Windows环境下进行开发,并且希望在Windows上保留CRLF行尾符号的习惯。该选项需要将"core.autocrlf"设置为"true"。

  • Checkout as-is, commit Unix-style line endings

检出文本文件时,Git不会执行任何行尾符号的转换,保持原样。但是在提交文本文件时,Git会将行尾符号 CRLF 转换为 LF。这适用于跨平台项目,特别是在Unix环境下进行开发,并且希望在提交时统一使用LF行尾符号。该选项需要将"core.autocrlf"设置为"input"。

  • Checkout as-is, commit as-is

检出和提交文本文件时都不执行行尾符号的转换,保持原样。这个选项通常不推荐用于跨平台项目,因为不同操作系统使用不同的行尾符号(CRLF或LF)。如果项目中的文件包含不一致的行尾符号,可能会导致问题。该选项需要将"core.autocrlf"设置为"false"。

11.配置用于Git Bash的终端模拟器

选择默认的第一种选项,点击“Next”按钮进入下一个安装界面。

  • 第一个是“使用MinTTY(MSYS2的默认终端)”。Git Bash将使用MinTTY作为终端模拟器,该模拟器具有可调整大小的窗口,非矩形选择和Unicode字体。Windows控制台程序(例如交互Python)必须通过“ winpty”启动才能在MinTTY中运行。
  • 第二个是“使用Windows的默认控制台窗口”。Git将使用Windows的默认控制台窗(“cmd.exe”),该窗口可以与Win32控制台程序(如交互式Python或node.js)一起使用,但默认的回滚非常有限,需要配置为使用unicode 字体以正确显示非ASCII字符,并且在Windows 10之前,其窗口不能自由调整大小,并且只允许矩形文本选择。

12.选择git pull的默认行为

选择默认的第一种选项,点击“Next”按钮进入下一个安装界面。

  • 第一个是默认值,这是“git pu”的标准行为:尽可能将当前分支快速转发到获取的分支,否则创建合并提交
  • 第二个是复位,将当前分支复位到获取的分支上。如果没有要重新设置基础的本地提交,这相当于快进,
  • 第三个是只有快进,快进到获取的分支。如果不能获取,则失败。

13.配置凭证管理器

选择默认的第一种选项,点击“Next”按钮进入下一个安装界面。

  • 第一个,Git凭证管理器
  • 第一个,无,不要使用凭证管理器

14.配置额外选项

默认即可,开始安装

15.等待安装

16.安装完成

三、验证安装

win + R 输入 cmd

输入:

git --version

如图所示安装成功

Read more

AIGC 应用工程师、人工智能训练工程师、人工智能算法工程师、人工智能标注工程师、AI智能体应用工程师、生成式人工智能应用工程师

(一)报考条件:年满18周岁 (二)报名及考试流程  1.  学生填写报名表:姓名、性别、身份证号、电话号码、所报证书名称、级别,务必保证信息正确。 2. 使用电子照片要求: 背景颜色:蓝色、白色; 3. 拿证周期:3-4个月 人工智能应用工程师(高级)课程体系解读 课程体系围绕人工智能应用工程师(高级) 职业技能培养,分 6 大阶段,覆盖环境搭建、数据处理、核心算法、实战应用、效果测试与职业考核全流程,是从基础到高阶的完整 AI 应用开发学习路径。 一、阶段核心内容与能力目标 1. 人工智能环境管理 * 核心课程:环境与存储系统配置 * 知识模块:Python/Spark 环境搭建、虚拟机与

By Ne0inhk
【Coze-AI智能体平台】解锁 Coze 工作流:逻辑控制・数据处理・AIGC 多媒体全场景实战

【Coze-AI智能体平台】解锁 Coze 工作流:逻辑控制・数据处理・AIGC 多媒体全场景实战

🔥小龙报:个人主页 🎬作者简介:C++研发,嵌入式,机器人方向学习者 ❄️个人专栏:《coze智能体开发平台》 ✨ 永远相信美好的事情即将发生 文章目录 * 前言 * 一、业务逻辑节点 * 1.1 选择器节点 * 1.2 意图识别节点 * 1.3 循环节点 * 1.4 批处理节点 * 1.5 变量聚合节点 * 1.6 代码节点 * 1.6.1 JSON? * 1.6.2 python异步编程 * 1.7 数据库节点 * 1.7.1 新增数据节点 * 1.7.2

By Ne0inhk
paperxie 期刊论文:打破发表壁垒的智能写作利器

paperxie 期刊论文:打破发表壁垒的智能写作利器

paperxie-免费查重复率aigc检测/开题报告/毕业论文/智能排版/文献综述/aippt https://www.paperxie.cn/ai/journalArticleshttps://www.paperxie.cn/ai/journalArticleshttps://www.paperxie.cn/ai/journalArticles 在学术发表竞争日趋激烈的今天,一篇合格的期刊论文不仅需要扎实的研究内容,更要精准匹配目标期刊的学术规范、语言风格和审稿偏好。从普通期刊到中文核心,再到 SCI 顶刊,不同层级的发表门槛让无数研究者陷入 “选题跑偏 — 内容不符 — 格式出错 — 审稿被拒” 的困境。paperxie 平台的期刊论文智能写作功能,正是为破解这一痛点而生,以全流程的智能辅助,为学术创作者搭建起从研究构思到成功见刊的高效桥梁。 一、精准锚定:从期刊类型到写作需求的深度适配 期刊论文的写作本质是 “带着镣铐跳舞”—— 既要保持学术创新,又要严格遵循目标期刊的规则。paperxie 的核心优势,

By Ne0inhk

llama.cpp量化模型部署实战:从模型转换到API服务

1. 为什么你需要关注llama.cpp:让大模型在普通电脑上跑起来 如果你对AI大模型感兴趣,肯定听说过动辄需要几十GB显存的“庞然大物”。想在自己的电脑上跑一个7B参数的模型,以前可能得配一张昂贵的专业显卡。但现在,情况不一样了。我今天要跟你聊的 llama.cpp,就是那个能让大模型“瘦身”并飞入寻常百姓家的神奇工具。 简单来说,llama.cpp是一个用C/C++编写的开源项目,它的核心目标只有一个:用最高效的方式,在消费级硬件(比如你的笔记本电脑CPU)上运行大型语言模型。它不像PyTorch那样是个庞大的深度学习框架,它更像一个“推理引擎”,专注于把训练好的模型,以最小的资源消耗跑起来。 我刚开始接触大模型部署时,也被各种复杂的依赖和巨大的资源需求劝退过。直到用了llama.cpp,我才发现,原来在我的MacBook Pro上,也能流畅地和Llama 2这样的模型对话。这背后的功臣,主要就是两点:纯C/C++实现带来的极致性能,以及模型量化技术带来的体积与速度革命。量化这个词听起来有点技术,你可以把它想象成给模型“压缩图片”

By Ne0inhk