5060ti显卡本地AI训练部署

5060ti显卡本地AI训练部署

前言

前面配置的时候找了很多文章来看,都有着各种奇奇怪怪的问题,本文将记录我配置成功的一次案例供大家参考。2025年11月24日记 这是我第一次实现大模型的微调训练,电脑的配置是显卡NVIDIA GeForce RTX 5060 Ti GPU,训练的是Deep Seek-r1 的 7B 模型如果大家有更好的显卡,可以尝试一下14B。在此非常感谢ZEEKLOG的大佬,在他们的基础上,我的博客进一步完善一些细节,文末会附上大佬的原文链接。那么废话不多说,直接开始!(默认大家有一定的基础)

1.前置条件


1.1 基础配置

(具体的安装和使用教程网上有很多,在这里就不做过多的赘述了)

1. 使用Anaconda(Python的环境管理工具),这样就不需要一个一个单独下载python的版本,并且使用起来很方便。

2. 使用PyCharm(Python的集成开发环境),可以在这里面编辑、运行.py文件等操作。

3. 使用Git(分布式版本控制系统),用于克隆GitHub上的优秀项目,不用也没事,可以直接下载.zip文件。

4. 使用CUDA和cuDNN(用于GPU训练加速),需要注意这里面的版本关系,别下错了。​​​​​​

5.使用PyTorch(深度学习框架),这个版本要与你自己电脑的CUDA版本对应。

以上就是环境配置需要的全部内容,接下来我们就进行项目复刻。

1.2安装anaconda3

这个没什么说的,直接官网上面下载安装包,拉到本地后一直点下一步 ,注意:选择较大的磁盘放置,不建议放系统盘

1.3初始化环境

打开Anaconda Prompt(从Windows开始菜单找到),执行

创建新的虚拟环境

conda create -n llama python=3.10 

激活虚拟环境

conda activate llama

安装支持 sm_120 的 PyTorch(5060ti的CUDA是12.8/12.9,选择支持你们自己电脑的CUDA的版本)

# 先安装PyTorch CUDA版本(官方源),再安装其他依赖(清华源) pip install torch==2.8.0 --index-url https://download.pytorch.org/whl/cu128 pip install torchvision==0.23.0 torchaudio==2.8.0 -i https://pypi.tuna.tsinghua.edu.cn/simple

这个地方我没有跑动,所以采取了下述方法

手动下载 CUDA 12.8 版的 PyTorch whl 包

pip 直接下载官方源容易超时,手动下载是最稳定的方式,步骤如下:打开浏览器,访问 PyTorch 官方 cu128 源的索引页:https://download.pytorch.org/whl/cu128/torch/在页面中找到适配你环境的 whl 包:我的环境是Python 3.10 + Windows AMD64,对应包名是:torch-2.8.0%2Bcu128-cp310-cp310-win_amd64.whl%2B+的 URL 编码,下载后文件名会自动还原)。点击该链接开始下载(文件大小约3.2GB),若浏览器下载慢,可复制链接到迅雷 / IDM等下载工具,利用多线程加速。记住下载的保存路径(比如G:\AI\downloads\C:\Users\Administrator\Downloads\)。



本地安装 CUDA 版 PyTorch

打开命令行(确保已激活llama环境),切换到 whl 包的下载目录,执行本地安装命令:

验证脚本

import torch print("PyTorch版本:", torch.__version__) print("CUDA是否可用:", torch.cuda.is_available()) print("CUDA版本:", torch.version.cuda if torch.cuda.is_available() else "None") if torch.cuda.is_available(): print("GPU设备:", torch.cuda.get_device_name(0)) print("GPU数量:", torch.cuda.device_count())

预期输出:

接下来就是:克隆GitHub项目

#git拉取 pip install -e ".[torch,metrics]" -i https://pypi.tuna.tsinghua.edu.cn/simple/ #或者镜像源直接下 pip install -e ".[torch,metrics]" -i https://pypi.tuna.tsinghua.edu.cn/simple/ 

下载下来后直接pycharm打开

验证(出现版本号就成功了)

llamafactory-cli version

1.4下载大模型

在终端输入如下指令,修改大模型存放位置(选择一个合适足够大的存储位置)

echo $env:HF_HOME = "G:\AI\Hugging-Face"

修改大模型下载位置(这个一般不需要修改)

echo $env:HF_ENDPOINT="https://hf-mirror.com"

安装huggingface_hub(如果第一个下载爆红,可以试试第二个镜像源)

pip install -U huggingface_hub #或者 pip install -U huggingface_hub -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple 

下载训练模型

huggingface-cli download --resume-download deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
如果上述有问题可采用这个办法解决:
 右键「此电脑」→「属性」→「高级系统设置」→「环境变量」。在用户变量系统变量中,点击「新建」:变量名HF_ENDPOINT变量值https://hf-mirror.com点击「确定」保存,重启命令行窗口(环境变量生效)。直接执行简化的下载命令即可:

1.5制作训练集(json格式)

 { "messages": [ { "role": "user", "content": [{"type": "text", "value": "hi"}], "loss_weight": 0.0 }, { "role": "assistant", "content": [{"type": "text", "value": "Hello! I am LAP酱, an AI assistant developed by BINGCHN. How can I assist you today with your CTF challenges?"}], "loss_weight": 1.0 } ] }

配置训练集

1.6启动LLama-Factory 的可视化微调界面(http://localhost:7860/)

llamafactory-cli webui

如果报错可以检查一下huggingface-hub版本,建议使用0.34.0

最后就是看后面的东西了

Read more

使用trae进行本地ai对话机器人的构建

使用trae进行本地ai对话机器人的构建

前言 在人工智能技术快速发展的今天,构建本地AI对话机器人已成为开发者和技术爱好者的热门选择。使用 trae可以高效地实现这一目标,确保数据隐私和响应速度。本文将详细介绍如何利用 Trae 搭建本地AI对话机器人,涵盖环境配置、模型加载、对话逻辑实现以及优化技巧,帮助读者从零开始构建一个功能完整的AI助手。 本地化AI对话机器人的优势在于完全离线运行,避免网络延迟和数据泄露风险,同时支持自定义训练模型以适应特定场景需求。无论是用于个人助理、客服系统,还是智能家居控制,Trae 都能提供灵活的解决方案。 获取api相关信息 打开蓝耘进行登录,如果你是新人的话需要进行注册操作,输入你相关的信息就能进行注册成功 在平台顶部导航栏可以看到Maas平台,点击进入模型广场 来到模型广场可以看到很多的ai模型,比如就有我们的kimi k2模型 点击进去可以看到kimi k2模型的相关信息,我们将模型的id进行复制,等会儿我们是要用到的 /maas/kimi/Kimi-K2-Instruct 并且这里还具有在线体验的功能,生成回答速度快 https://archive.

Java Web 桂林旅游景点导游平台系统源码-SpringBoot2+Vue3+MyBatis-Plus+MySQL8.0【含文档】

Java Web 桂林旅游景点导游平台系统源码-SpringBoot2+Vue3+MyBatis-Plus+MySQL8.0【含文档】

系统架构设计### 摘要 随着信息技术的快速发展,智慧旅游逐渐成为提升旅游体验的重要方向。桂林作为中国著名的旅游城市,拥有丰富的自然景观和人文资源,但传统的旅游信息服务模式存在信息分散、更新滞后、用户体验不佳等问题。游客在规划行程时往往需要从多个平台获取信息,效率较低。因此,开发一个集景点介绍、路线规划、用户评价等功能于一体的智能化导游平台具有重要的现实意义。该平台旨在通过技术手段整合桂林旅游资源,为游客提供一站式服务,提升旅游体验的便捷性和个性化。关键词:智慧旅游、桂林、导游平台、资源整合、用户体验。 本系统采用前后端分离架构,后端基于SpringBoot2框架搭建,结合MyBatis-Plus实现高效的数据操作,数据库选用MySQL8.0以支持高并发访问。前端使用Vue3框架开发,利用其响应式特性提升用户交互体验。系统功能涵盖景点信息展示、用户评论管理、路线推荐、订单管理等模块,并通过JWT实现安全的用户认证。系统设计注重可扩展性和可维护性,采用RESTful API规范进行接口设计,确保前后端高效协作。关键词:SpringBoot2、Vue3、MyBatis-Plus、MyS

Web远程桌面终极指南:3分钟在浏览器中访问任何电脑

还在为复杂的远程控制软件烦恼吗?想要在任何设备上都能轻松访问远程电脑?今天我要向你介绍一个革命性的工具——mstsc.js,这是一个纯JavaScript实现的Microsoft远程桌面协议客户端,让你直接在浏览器中就能实现完整的远程桌面体验! 【免费下载链接】mstsc.jsA pure Node.js Microsoft Remote Desktop Protocol (RDP) Client 项目地址: https://gitcode.com/gh_mirrors/ms/mstsc.js 快速启动:三步搭建你的个人远程控制中心 搭建属于自己的Web远程桌面服务异常简单,只需要三个基础步骤: 第一步:获取项目源码 git clone https://gitcode.com/gh_mirrors/ms/mstsc.js cd mstsc.js 第二步:安装必要组件 npm