Gitee上传代码手把手教会(成功版)

Gitee上传代码手把手教会(成功版)

Gitee上传代码手把手教会(成功版)

注册与准备

在Gitee官网(gitee.com)注册账号并登录。安装Git客户端(Windows可下载Git Bash,Mac/Linux通过终端安装)。

1. 创建仓库

登录Gitee后,点击右上角「+」选择「新建仓库」,填写仓库名称、描述,选择公开或私有,勾选「使用README文件初始化仓库」后点击创建。

在这里插入图片描述

2.进入本地你想要上传的文件目录下,右键单击空白处,点击Open Git Bash Here

在这里插入图片描述

3.设置全局用户名和邮箱:

git config --global user.name "YourName"git config --global user.email "[email protected]"

(P.S.如果不放心可以输入以下命令检查自己的用户名和邮箱)

git config user.name git config user.email 

4.初始化本地仓库

git init 

5.添加与提交代码

将代码文件放入本地仓库目录后,执行:

gitadd.git commit -m "Initial commit"

6.克隆仓库到本地

在仓库页面点击「克隆/下载」复制HTTPS或SSH地址,执行:

在这里插入图片描述


然后输入下列命令(xxx为刚才复制的链接)

git remote add origin xxx 

7.强制将远程仓库文件更新至指定远程仓库中(如果仓库为空可以跳过这一步骤)

git pull --rebase origin master 

8.推送代码到Gitee

首次推送需关联远程仓库并上传:

git push -u origin master 

若使用SSH且未配置密钥,需先生成SSH密钥并添加到账户设置中。

9.最后回到Gitee网页,刷新一下即可!

到这你的代码就上传成功了!

在这里插入图片描述

10.分支管理(可选)

创建新分支并切换:

git checkout -b new-branch 

推送分支:

git push origin new-branch 

常见问题

  • 权限错误:检查远程地址是否正确,或重新配置SSH密钥。
  • 冲突解决:合并前先拉取最新代码(git pull),手动解决冲突后重新提交。
  • 大文件支持:Gitee单文件限制100MB,需使用Git LFS管理大文件。

Read more

Z-Image-Turbo真实体验:高分辨率AI绘画太震撼了

Z-Image-Turbo真实体验:高分辨率AI绘画太震撼了 最近在ZEEKLOG星图镜像广场试用了预置Z-Image-Turbo的文生图环境,说实话——第一张图生成出来的时候,我下意识放大到200%,盯着屏幕看了足足半分钟。不是因为画得有多“完美”,而是那种1024×1024分辨率下依然清晰锐利的细节、自然流动的光影过渡、以及9步推理就完成的丝滑感,彻底打破了我对“快”和“好”必须二选一的认知。这不是又一个参数堆出来的模型,而是一次真正面向创作者工作流的工程突破。 它不靠牺牲质量换速度,也不用拉长等待时间保细节。它就站在那里,安静地告诉你:高分辨率AI绘画,本该这么顺。 1. 开箱即用的真实体验:从启动到出图,不到45秒 很多人以为“开箱即用”只是宣传话术。但这次,我连终端都没来得及多敲几个命令,就已经在看第一张生成图了。 我选择的是RTX 4090D实例(24G显存),镜像已预置全部32.88GB权重文件——这点太关键了。没有下载进度条,没有缓存校验卡顿,没有“正在加载分片001/127”的焦虑。只有三步: 1.

By Ne0inhk

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否在编译llama.cpp时遭遇过CUDA相关的"nvcc not found"错误?是否尝试启用GPU加速却始终无法识别显卡?本文将系统梳理llama.cpp项目中CUDA编译的常见问题,提供从环境配置到高级优化的完整解决方案,让你的NVIDIA显卡充分释放AI计算潜能。 CUDA编译基础与环境检查 llama.cpp通过CUDA后端实现NVIDIA GPU加速,其核心配置位于CMakeLists.txt构建系统中。官方推荐的基础编译命令看似简单: cmake -B build -DGGML_CUDA=ON

By Ne0inhk

Midjourney作品集自动生成说明文档:Anything-LLM联动方案

Midjourney作品集自动生成:Anything-LLM联动实践 在AI创作工具日益普及的今天,设计师们正面临一个看似矛盾的现象:生产力空前提升,但知识管理却愈发混乱。每天生成上百张图像、尝试无数种提示词组合后,真正能被复用的设计经验反而像沙子一样从指缝中溜走。你是否也有过这样的经历——明明记得上周做过一张“赛博朋克海滩”的图,现在客户提出类似需求时,翻遍Discord聊天记录却怎么也找不到? 这正是我们构建这套自动化系统的出发点。与其把AI当作一次性的画笔,不如让它成为团队的“长期记忆体”。而关键,就在于如何将那些散落在各处的图像和提示词,转化为可检索、可对话的知识资产。 想象一下这个场景:你在Anything-LLM的聊天框里输入:“找一张去年夏天做的、带霓虹灯的城市夜景图,风格接近赛博朋克。” 几秒钟后,系统不仅返回了三张匹配度最高的作品预览,还附上了原始prompt、参数设置以及生成时间。更进一步,它甚至建议:“您在7月12日还尝试过一种高chaos值的变体,视觉冲击更强,需要查看吗?” 这不是未来设想,而是通过Midjourney + Anything-LLM联动

By Ne0inhk

ChatGPT免费版与微软Copilot深度对比:技术选型与新手避坑指南

作为一名开发者,最近在项目里想集成一个AI助手,面对市面上眼花缭乱的选择,尤其是免费的ChatGPT和微软力推的Copilot,到底该选哪个?这确实是个让人纠结的问题。我花了一些时间,从技术实现、实际调用到性能表现,做了一次比较深入的对比和测试,希望能给同样有选择困难的朋友们一些参考。 1. 市场定位与典型场景:它们各自擅长什么? 简单来说,你可以把ChatGPT免费版看作一个“通用型对话专家”,而微软Copilot更像一个“深度集成在微软生态里的专业副驾驶”。 * ChatGPT免费版:它的核心优势在于强大的通用对话和文本生成能力。无论是头脑风暴、撰写邮件、学习新概念,还是进行开放式的创意讨论,它都能提供质量不错的回应。对于开发者而言,它非常适合用于: * 学习新技术:解释复杂的编程概念或算法。 * 代码解释与重构:将一段代码丢给它,让它解释逻辑或提出优化建议。 * 生成示例代码:根据自然语言描述,快速生成某个功能的代码片段原型。 * 微软Copilot:它的设计初衷就是提升开发和生产效率,与Visual Studio Code、GitHub、Micros

By Ne0inhk