AI大模型的本地驯服——如何在自己电脑上训练一个专属大模型

AI大模型的本地驯服——如何在自己电脑上训练一个专属大模型

文章目录

1.前言

2025年3月12日记 这是我第一次实现大模型的微调训练,电脑的配置是显卡NVIDIA GeForce RTX 3050 Ti Laptop GPU,三年前的笔记本了,不过还是能跑起来的,训练的是Deep Seek-r1 的 1.5B 模型,之前跑 7B 的直接卡死了。如果大家有更好的显卡,可以尝试一下。在此非常感谢ZEEKLOG的大佬,在他们的基础上,我的博客进一步完善一些细节,文末会附上大佬的原文链接。那么废话不多说,直接开始!(默认大家有一定的基础)

2.训练模型
2.1 基础配置

(具体的安装和使用教程网上有很多,在这里就不做过多的赘述了)

  1. 使用Anaconda(Python的环境管理工具),这样就不需要一个一个单独下载python的版本,并且使用起来很方便。
  2. 使用PyCharm(Python的集成开发环境),可以在这里面编辑、运行.py文件等操作。
  3. 使用Git(分布式版本控制系统),用于克隆GitHub上的优秀项目,不用也没事,可以直接下载.zip文件。
  4. 使用CUDAcuDNN(用于GPU训练加速),需要注意这里面的版本关系,别下错了。
  5. 使用PyTorch(深度学习框架),这个版本要与你自己电脑的CUDA版本对应。

以上就是环境配置需要的全部内容,接下来我们就进行项目复刻。

2.2 初始化环境

打开Anaconda Prompt(从Windows开始菜单找到),执行

创建新的虚拟环境

conda create -n llama python=3.10

激活虚拟环境

conda activate llama 

安装PyTorch(我的CUDA是12.4,选择支持你们自己电脑的CUDA的版本)

conda installpytorch==2.5.1 torchvision==0.20.1 torchaudio==2.5.1 pytorch-cuda=12.4 -c pytorch -c nvidia 

克隆GitHub项目

git clone https://github.com/hiyouga/LLaMA-Factory.git 

或者直接下载压缩包,如图所示

github

下载完成后直接在PyCharm中打开项目

pycharm

在使用大佬的安装指令时出现问题,AI教我加了一个镜像源,好用

pip install -e ".[torch,metrics]" -i https://pypi.tuna.tsinghua.edu.cn/simple/ 

验证安装(出现版本号就成功了)

llamafactory-cli version 
version
2.3下载大模型

在终端输入如下指令,修改大模型存放位置(选择一个合适足够大的存储位置)

echo$env:HF_HOME ="E:\soft\Hugging-Face"

修改大模型下载位置(这个一般不需要修改)

echo$env:HF_ENDPOINT="https://hf-mirror.com"

安装huggingface_hub(如果第一个下载爆红,可以试试第二个镜像源)

pip install -U huggingface_hub 
pip install -U huggingface_hub -i https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple 
install

下载训练模型

huggingface-cli download --resume-download deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B 
2.4制作训练集(json格式)
{"instruction":"你叫什么?是谁发明了你?","input":"","output":"您好,我名为 小白智能助手,是 AIOT工作室 发明的 AI 助手。我的任务是为用户提供有针对性的解答和支持。"},
data

配置训练集

在这里插入图片描述
2.5启动LLama-Factory 的可视化微调界面(http://localhost:7860/)
llamafactory-cli webui 
train

选择自己的训练数据集

dataset

训练的超参数根据自己的需求调整,这些参数设置是AI告诉我的,并不是最好的,可以自己摸索一下

setting

点击开始训练

trainstart

在pycharm和网页可以查看训练进度

pycharm进度
web进度

训练完毕

finsh
2.6在线使用
use
chat

驯服成功 DeepSeek-R1-1.5B模型!!!

chatai
2.7模型导出

选择一个内存足够的盘符进行导出

export
2.8本地使用

创建一个新环境,跟之前的训练环境隔开,如果不使用python做前端界面可以省略这一步

  1. 新建deepspeekApi虚拟环境
conda create -n deepspeekApi python=3.10
  1. 激活虚拟环境deepspeekApi
conda activate deepspeekApi 
  1. 下载所需依赖
conda install -c conda-forge fastapi uvicorn transformers pytorch 
pip install safetensors sentencepiece protobuf 
  1. 现在就可以使用python代码进行本地调用,效果如下
本地使用
  1. 使用python编程实现上述功能,采用gradio框架进行快速开发部署(http://localhost:7860/)
from transformers import AutoModelForCausalLM, AutoTokenizer import torch import gradio as gr # 模型路径 model_path =r"E:\DeepSeek-merged"# 这里选择自己保存的路径# 加载模型和tokenizer tokenizer = AutoTokenizer.from_pretrained(model_path) device ="cuda"if torch.cuda.is_available()else"cpu" model = AutoModelForCausalLM.from_pretrained( model_path, torch_dtype=torch.float16 if device =="cuda"else torch.float32 ).to(device)defgenerate_response(message, history):try:# 将历史对话拼接成prompt prompt ="\n".join([f"用户:{h[0]}\n助手:{h[1]}"for h in history])+f"\n用户:{message}\n助手:"# 编码输入 inputs = tokenizer(prompt, return_tensors="pt").to(device)# 生成回复 outputs = model.generate( inputs.input_ids, max_length=1000, min_length=30, top_p=0.85, temperature=0.6, repetition_penalty=1.2, no_repeat_ngram_size=3, num_beams=4, do_sample=True, early_stopping=True)# 解码并提取新生成的回复 response = tokenizer.decode(outputs[0][inputs.input_ids.shape[-1]:], skip_special_tokens=True)return response except Exception as e:returnf"生成回复时出错:{str(e)}"# 创建Gradio界面 demo = gr.ChatInterface( fn=generate_response, title="AI问答助手", description="AIOT工作室开发的智能助手", examples=["你好!你是谁?","你能做什么?"], theme="soft")if __name__ =="__main__":# demo.launch(server_name="0.0.0.0", server_port=7860) # 所有端口都可以访问 demo.launch(server_name="localhost", server_port=7860)# 本地访问
3. 致谢

参考大佬的博客进行一些优化,原文链接如下:

解锁DeepSpeek-R1大模型微调:从训练到部署,打造定制化AI会话系统_speek人工智能-ZEEKLOG博客

Read more

AI自瞄系统实战指南:基于YOLOv5的穿越火线智能瞄准解决方案

想要在穿越火线游戏中获得更精准的射击体验吗?今天我们将带你深入了解如何利用先进的YOLOv5目标检测技术,打造一个智能化的自动瞄准系统。无论你是游戏爱好者还是AI技术探索者,这个项目都将为你打开一扇通往智能游戏辅助的大门。 【免费下载链接】aimcf_yolov5使用yolov5算法实现cf的自瞄 项目地址: https://gitcode.com/gh_mirrors/ai/aimcf_yolov5 🎯 项目核心价值 AIMCF_YOLOv5项目巧妙地将深度学习技术与游戏实战需求相结合,通过实时画面分析、目标识别和智能瞄准算法,为玩家提供前所未有的游戏辅助体验。相比传统的辅助程序,我们的方案更加智能和安全。 🚀 快速部署指南 环境准备步骤 首先确保你的系统满足以下基本要求: * Windows 10或11操作系统 * Python 3.8及以上版本 * 支持CUDA的NVIDIA显卡(可选,但推荐) 一键安装流程 # 克隆项目到本地 git clone https://gitcode.com/gh_mirrors/ai/aimcf_yolov5 # 进

By Ne0inhk
2025 AI数据准备:EasyLink让多模态非结构化数据处理变简单

2025 AI数据准备:EasyLink让多模态非结构化数据处理变简单

一、前言 在数据驱动的时代,企业每天被PDF、财报、合同、研究报告等海量文档所淹没。这些非结构化的多模态数据中蕴藏着关键业务洞察,却因格式复杂、版式多样、信息分散,成为难以开采的暗数据。研究人员仍需逐页翻查论文,分析师依旧通宵解析百页报表——传统处理方式不仅效率低下,更在规模面前显得无力。 随着大模型的普及,许多人期待它能自动化解这一困境。然而现实却揭示出一个严峻挑战:即使是当前最先进的视觉大模型,在面对复杂版式文档、混排图表与密集文本时,其识别准确率仍与专业非结构化数据处理工具存在显著差距。 一项全面测评显示,通过在多个OCR方法中探索中小模型的参数量、计算量、数据量对于精度的影响,成功证明了OCR领域在这三个维度存在Power-Law规律。 这些研究成果表明,OCR技术在提升多模态大模型性能方面发挥着关键作用,尤其是在处理复杂的视觉问答任务时。我们的工作不仅推动了OCR技术的发展,也为多模态大模型的应用提供了新的视角。 正式研究人员的不断努力,EasyLink团队致力于从数据源头破解这一难题。通过行业领先的智能文档解析与图表理解技术,为多模态大模型提供清洁、结构化

By Ne0inhk
HexStrike AI 部署教程

HexStrike AI 部署教程

一、HexStrike AI 简介 1、关于 HexStrike AI HexStrike AI 是一个革命性的人工智能驱动的进攻性安全框架,它将专业安全工具与自主人工智能代理相结合,提供全面的安全测试功能。 HexStrike AI 基于多代理架构构建,利用智能决策、实时漏洞分析和高级自动化,彻底改变安全专业人员处理渗透测试、漏洞赏金搜寻和 CTF 挑战的方式。 2、运作方式 HexStrike AI 通过 MCP 通过外部 LLM 进行人机交互,创建提示、分析、执行和反馈的连续循环。 3、能力 4、官网地址 HexStrike AI - 革命性的人工智能驱动的进攻性安全框架https://www.hexstrike.com/ 5、项目地址 GitHub - 0x4m4/

By Ne0inhk
全球首个可追溯!中国DeepRare登《自然》:罕见病AI医生准确率碾压国际

全球首个可追溯!中国DeepRare登《自然》:罕见病AI医生准确率碾压国际

一、里程碑时刻:中国AI破解罕见病诊断世界性难题 2026年2月19日,国际顶刊《自然》(Nature)在线刊发中国科研团队重磅成果——全球首个“推理过程可追溯”的罕见病AI医生DeepRare。这款由上海交通大学联合新华医院团队研发的智能系统,以57.18%的表型诊断首位准确率,将国际最优模型的33.39%远远甩在身后,领先幅度达23.79个百分点(近24个百分点),彻底改写罕见病诊断“黑箱”困境。 更值得骄傲的是,DeepRare并非停留在实验室的理论成果:自2025年7月26日上线在线诊断平台以来,半年内已吸引超1000名专业用户注册,覆盖全球600多家医疗科研机构,从国内三甲医院到欧美的顶尖实验室,均将其作为罕见病诊疗的“智能听诊器”。在上海新华医院,它已化身“数字质控员”进入内测阶段,即将正式嵌入全院罕见病诊疗流程,为每一次诊断筑牢“安全底线”——这标志着中国医工交叉创新不仅实现技术领跑,更成功跑通了“在线平台、院内质控、产业赋能”三位一体的转化路径,完成从科研到临床的闭环落地。 二、技术拆解:三大核心突破,让AI诊断“

By Ne0inhk