Git下载安装教程

Git下载安装教程
我下载Git的目的是为了借助Git把项目上传到Gitee
如何把项目上传到Gitee

文章目录


提示:以下是本篇文章正文内容,下面案例可供参考

一、Git 的下载

第一个:Git下载地址
第二个:Git下载地址
打开官网下载适合自己电脑的版本,选择【Download】下载

在这里插入图片描述

二、Git 安装

在这里插入图片描述


下载后双击Git的安装包开始安装,基本上每一步都是傻瓜式安装
点击【Next】下一步

在这里插入图片描述

接下来选择路径(一般不选择C盘)

在这里插入图片描述

下面页面大家根据自己需要选择勾选即可,不过一般都是默认的

在这里插入图片描述

这里默认即可
这是在 “开始” 菜单文件夹中创建程序的快捷方式

在这里插入图片描述

Git 安装程序内有很多编辑器,我们选择默认的即可
如果选其他编辑器,则需要去其官网安装后才能进行下一步

在这里插入图片描述

接下来基本全是默认的,直接【Next】即可

截图可能不是那么全,你只需要知道一直下一步即可

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

然后选择【Install】安装

在这里插入图片描述


在这里插入图片描述


安装好后桌面会出现Git Bash的图标

在这里插入图片描述

双击打开此图标输入:
where git :查看安装位置
git --version :查看安装是否成功

在这里插入图片描述

三、Git 配置

右键"此电脑"→"属性"→"高级系统设置"

在这里插入图片描述

选择环境变量

在这里插入图片描述

在系统变量内选择Path,点击编辑

在这里插入图片描述

加入刚才的安装位置

在这里插入图片描述

总结

傻瓜式安装

Read more

【AI大模型前沿】昆仑万维开源Skywork-R1V3:38B多模态推理模型,高考数学142分刷新开源SOTA

【AI大模型前沿】昆仑万维开源Skywork-R1V3:38B多模态推理模型,高考数学142分刷新开源SOTA

系列篇章💥 No.文章1【AI大模型前沿】深度剖析瑞智病理大模型 RuiPath:如何革新癌症病理诊断技术2【AI大模型前沿】清华大学 CLAMP-3:多模态技术引领音乐检索新潮流3【AI大模型前沿】浙大携手阿里推出HealthGPT:医学视觉语言大模型助力智能医疗新突破4【AI大模型前沿】阿里 QwQ-32B:320 亿参数推理大模型,性能比肩 DeepSeek-R1,免费开源5【AI大模型前沿】TRELLIS:微软、清华、中科大联合推出的高质量3D生成模型6【AI大模型前沿】Migician:清华、北大、华科联手打造的多图像定位大模型,一键解决安防监控与自动驾驶难题7【AI大模型前沿】DeepSeek-V3-0324:AI 模型的全面升级与技术突破8【AI大模型前沿】BioMedGPT-R1:清华联合水木分子打造的多模态生物医药大模型,开启智能研发新纪元9【AI大模型前沿】DiffRhythm:西北工业大学打造的10秒铸就完整歌曲的AI歌曲生成模型10【AI大模型前沿】R1-Omni:阿里开源全模态情感识别与强化学习的创新结合11【AI大模型前沿】Qwen2.5-Omni:

By Ne0inhk
开源智能体搭建平台MaxKB4j 技术文档

开源智能体搭建平台MaxKB4j 技术文档

MaxKB4j 技术文档 项目概述 MaxKB4j (Max Knowledge Base for Java) 是一个基于 Java/Spring Boot 和 LangChain4j 构建的开源的 RAG(检索增强生成)知识库和 LLM 工作流平台,支持多模型集成、可视化工作流编排、知识库问答和多模态能力,专为构建企业级智能问答系统而设计。 核心特性 * 开箱即用的知识库问答: 支持上传本地文档或自动抓取网页内容,自动完成文本分块 → 向量化 → 向量数据库存储 → RAG 流程构建 * 模型无关的灵活集成: 支持多种主流大语言模型(OpenAI、Claude、Gemini、DeepSeek、Qwen、Ollama 等) * 可视化工作流编排: 内置低代码 AI 工作流引擎,支持条件分支、函数调用、多轮对话记忆 * MCP

By Ne0inhk
【全网最全的的本地部署Code Agent攻略参考】跃阶星辰AI开源Step-3.5-Flash

【全网最全的的本地部署Code Agent攻略参考】跃阶星辰AI开源Step-3.5-Flash

1. 简介 Step 3.5 Flash(访问官网)是我们目前最强大的开源基础模型,专为提供前沿推理与智能体能力而设计,同时具备卓越的效率。基于稀疏混合专家(MoE)架构,它每处理一个token仅激活1960亿参数中的110亿。这种"智能密度"使其推理深度可比肩顶级闭源模型,同时保持实时交互所需的敏捷性。 2. 核心能力 * 高速深度推理:聊天机器人擅长阅读,而智能体必须快速推理。通过三路多token预测(MTP-3)技术,Step 3.5 Flash在典型使用场景中实现100-300 tok/s的生成吞吐量(单流编码任务峰值达350 tok/s),能即时响应复杂的多步推理链条。 * 编码与智能体的强力引擎:Step 3.5 Flash专为智能体任务打造,集成可扩展的强化学习框架驱动持续自我进化。其SWE-bench Verified通过率74.4%,Terminal-Bench 2.0通过率51.

By Ne0inhk