【Windows笔记本大模型“傻瓜式”教程】使用LLaMA-Factory工具来完成对Windows笔记本大模型Qwen2.5-3B-Instruct微调

⚠️ 核心准备:硬件检查

在开始前,请确保你的笔记本电脑满足以下条件:

  1. 显卡(关键): 必须是 NVIDIA 显卡(N卡)。
  2. 显存: 建议至少 6GB(我们将使用很小的模型,4GB勉强也能跑,但6GB比较稳)。
  3. 硬盘空间: 预留 20GB 以上。

第一步:搭建环境

我们需要安装 Python 环境。请按顺序操作:

  1. 下载 Miniconda (Python管理器):
    • 访问 Miniconda官网
    • 下载 Miniconda3 Windows 64-bit 版本并安装。安装时一直点 Next,注意勾选 “Add Miniconda3 to my PATH environment variable”(如果变红也不管,勾上它方便后续操作)。
  2. 下载 Git (代码下载工具):
    • 访问 Git官网 下载安装,一路 Next 即可。
  3. 创建专属环境:
    • 按下 Win + R,输入 cmd 回车,打开黑色命令窗口。
  4. 安装 Pytorch (AI计算核心):
    • 注意:这一步比较大,取决于网速,请耐心等待。

继续在刚才的黑框里输入:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121 

复制粘贴以下命令(一行一行执行):

# 创建一个名为 llm 的环境,Python版本为 3.10 conda create -n llm python=3.10 -y # 激活这个环境(你会看到命令行前面变成 (llm)) conda activate llm 

第二步:安装微调神器 LLaMA-Factory

LLaMA-Factory 是一个“大模型工厂”,它把复杂的代码都封装在网页里了。

安装依赖:

pip install -e .[metrics]

(如果报错提示缺少 windows C++ build tools,不用慌,去下载“Visual Studio Build Tools”安装即可,或者忽略报错通常也能跑起来)

下载代码:
在 cmd 黑框里输入:

git clone https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory 

第三步:准备模型

为了让你的笔记本不卡顿,我们选用 Qwen2.5-3B-Instruct,中文能力强,非常适合新手。

我们将直接利用 LLaMA-Factory 的 WebUI 来自动下载,所以这里不需要手动去网页下载


第四步:准备微调数据

我们要教模型一点新知识。比如,我们要训练它认识

  1. LLaMA-Factory 文件夹下,找到 data 文件夹。
  2. 新建一个文本文件,重命名为 my_data.json
  3. 用记事本打开,复制以下内容进去(这是最标准的微调格式):
[{"instruction":"你是谁?","input":"","output":"我是您专属的智能助手,由偉大的主人在Windows笔记本上微调出来的!"},{"instruction":"介绍一下你的创造者。","input":"","output":"我的创造者是一位非常勤奋的学习者,他正在通过微调技术赋予我新的生命。"},{"instruction":"你会做什么?","input":"","output":"我可以陪您聊天,回答问题,但我最擅长的是夸奖我的主人!"}]

你可以照着这个格式多写几条,数据越多,效果越明显。

注册数据:
data 文件夹里找到 dataset_info.json 文件,用记事本打开。在文件最开头的 { 下面,插入以下代码(注意逗号):

"my_demo":{"file_name":"my_data.json"},

第五步:启动 WebUI 并测试

  1. 回到 cmd 黑框(确保前面是 (llm) 且路径在 LLaMA-Factory 下)。
  2. 稍等片刻,浏览器会自动弹出一个网页(通常是 http://localhost:7860)。

输入启动命令:

python src/webui.py 
5.1 初次测试
在这里插入图片描述
  1. 在网页顶部 模型名称 (Model name) 选择 Qwen2.5-3B-Instruct
  2. 模型路径 (Model path) 留空,或者选择 ModelScope(国内下载快)。
  3. 点击下面的 Chat (聊天) 选项卡。
  4. 点击 Load Model (加载模型)。它会自动开始下载模型,下载完后会显示“模型已加载”。
  5. 在下方聊天框输入:“你是谁?”
    • 由于还没微调,它会回答:“我是通义千问…”
  6. 点击 Unload Model (卸载模型),我们要准备训练了。

第六步:开始微调

  1. 先在文件夹中执行这个命令用于下载核心的依赖 pip install https://github.com/jllllll/bitsandbytes-windows-webui/releases/download/wheels/bitsandbytes-0.44.1-py3-none-win_amd64.whl
  2. 切换回 Train (训练) 选项卡。
  3. 设置参数(按我说的选,其他不动):
    • Data Dir (数据路径): data
    • Dataset (数据集): 找到并选中我们刚才加的 my_demo
    • Learning Rate (学习率): 改为 2e-4 (0.0002)。
    • Epochs (轮数): 改为 10 (因为数据少,多训练几轮)。
    • Cutoff Len (截断长度): 1024 (笔记本显存小,设小点)。
    • Batch Size: 1 (笔记本专用配置)。
    • Gradient Accumulation: 8。
    • Finetuning Method: LoRA (这很重要,只训练模型的一小部分,省显存)。
    • **Quantization bit:**4(这是为了压缩显存的使用)。
  4. 开始训练:
    • 点击页面下方的 Start (开始) 按钮。
    • 你可以看 cmd 黑框里的进度条。因为数据只有几条,大概 2-5分钟 就能跑完。
    • 当显示“Training Completed”时,微调完成了!

第七步:测试微调后的模型

模型微调后,生成了一个“补丁包”(LoRA权重),我们需要把它挂载到原模型上运行。

  1. 刷新一下网页(或者切到 Chat 选项卡)。
  2. 模型选择: 依然选 Qwen2.5-3B-Instruct
  3. 适配器路径 (Checkpoint path): 点击下拉菜单,应该能看到你刚才训练的 models/my_first_model,选中它。
  4. 对话模板Chat template记得选择qwen,否则会因为方言不同无法停止
  5. 点击 Load Model (加载模型)
  6. 在聊天框输入:“你是谁?”
  7. 见证奇迹:
    • 如果成功,它应该会回答:“我是您专属的智能助手,由偉大的主人在Windows笔记本上微调出来的!”

第八步:导出与部署(打包带走)

如果你想把这个微调好的模型合并成一个完整的模型文件,方便发给别人或在其他软件里用:

  1. 切换到 Export (导出) 选项卡。
  2. Max Shard Size: 填写 2GB。
  3. Export Dir (导出目录): 填写一个路径,例如 C:\MyFinalModel
  4. 点击 Export (开始导出)
  5. 导出完成后,C:\MyFinalModel 里的文件就是一个完整的、包含你个人知识的大模型了!

第九步:导入他人训练好的模型

第一步:解压

把你的压缩包,解压到一个全英文路径的文件夹里。

  • ❌ 错误示范:C:\用户\桌面\我的牛逼模型
  • ✅ 正确示范:D:\AI_Models\My_Finetuned_Qwen
第二步:打开 LLaMA Factory

启动 WebUI 界面。

第三步:加载你的“专属模型”(关键步骤)

这里有一点小技巧,因为你的模型是“自定义”的,不在它的下拉默认列表里。请按以下步骤操作(注意看界面上的选项):

  1. 模型名称 (Model Name)
    • 在下拉菜单里,选择 Custom(自定义)。
    • 注:有些旧版本可能需要选 Qwen2.5,然后在路径里修改,但选 Custom 最稳。
  2. 模型路径 (Model Path)
    • 这是最重要的一步!
    • 在这个输入框里,把第一步解压的那个文件夹的绝对路径粘贴进去。
    • 例如粘贴:D:\AI_Models\My_Finetuned_Qwen
  3. 检查点路径 (Checkpoint Path)
    • 留空!不要选任何东西!
    • 为什么? 因为你已经把 LoRA 融合进模型导出了,现在的这个文件夹就是一个完整的基座模型,不需要再挂载额外的 LoRA 补丁了。
  4. 点击“加载模型” (Load Model)
    • 如果右下角提示“模型加载成功”,那就搞定啦!
  5. 开始聊天
    • 切换到 Chat 选项卡,你的朋友就可以和你训练出来的“专属 AI”对话了。

中途遇到问题的处理

一. 如果报错:Converting format of dataset (num_proc=16)以及BrokenPipeError: [WinError 109] 管道已结束。则代表是发现你的电脑比较强(可能有16个逻辑核心),于是它试图启动 16个分身(进程) 来同时处理你的数据,想以此加快速度。但在 Linux 系统上这很正常,而在 Windows 上,多进程并发处理数据非常容易“打架”,导致通信管道断裂(Broken Pipe),程序就崩了。
解决方法1:前端强制单线程处理
(某些版本不支持)
  1. 切换到 Train (训练) 选项卡。
  2. 在左侧的参数设置区域,找到 Extra Configuration (额外配置),点击它旁边的小三角或者加号展开(如果不展开可能看不到)。
  3. 找到一个叫做 Preprocessing num workers (预处理线程数/进程数) 的选项。
  4. 默认它可能是空的,或者填了16。把它手动改成 1。
  5. 再次点击 Start (开始) 训练。
解决方法2:后端强制单线程处理
(部分情况下前端无法解决,就需要找到最终拦截点,直接改写配置)
  1. 打开文件:D:\AI\LLaMA-Factory\src\llamafactory\train\tuner.py(注意路径是 src -> llamafactory -> train -> tuner.py)
  2. 搜索这行长代码:model_args, data_args, training_args, finetuning_args, generating_args = get_train_args(args)
  3. 在这个下面添加下面这个代码data_args.preprocessing_num_workers = 1
  4. 保存文件并重启工具

总结

你刚才完成了大模型工程师的核心工作流程:

  1. 环境: Conda + LLaMA-Factory
  2. 数据: 构造 JSON 格式问答
  3. 训练: LoRA 微调
  4. 推理: 加载 LoRA 权重进行对话

Read more

终于,我把 Openclaw 加 Seed2.0 Skills 做 AI 漫剧搞定了

终于,我把 Openclaw 加 Seed2.0 Skills 做 AI 漫剧搞定了

这是苍何的第 500 篇原创! 大家好,我是苍何。 不知不觉,500 篇原创啦。年前开源的 AI 漫导开源项目也 1.1 k star 了。 最近玩 Openclaw 又玩的跟个疯狗似的,给我的小龙虾装了很多实用技能,可以自动写小红书图文,可以自动写作,配图,生成封面等。 但感觉生活还是很无趣,于是又花了一些时间,开发了个 AI 漫剧视频生成 Skills,给小龙虾使用。 准确的说,这是个基于字节 Seed2.0 的技能包,有以下子技能。 「seedance-video」:文生视频、图生视频,seedance 1.5 Pro 版本还自带音频生成,属于基本盘。 等seedance 2.0 的

2026年03月21日全球AI前沿动态

一句话总结:2026年3月20日AI领域呈现全维度爆发式发展,头部企业密集发布通用/垂直大模型与智能体产品,模型向高效推理、自我进化升级,智能体生态快速完善并实现产品化落地,算力硬件向端侧、专用化突破,AI与汽车、影视、农业等产业深度融合,同时企业融资收购频繁,AI安全治理、伦理问题成为行业重点关注方向,算力短缺、Token成本优化也成为行业发展核心议题。 一、模型与技术突破 1.1 通用大模型(大语言模型与多模态模型) * 阿里:发布通义千问3.5-Max-Preview,LM Arena得分1464,全球排名第五、中国第一,数学能力全球第三,综合性能全球第六,专家级处理能力跻身全球前十,千问App月活超3亿,模型在Hugging Face累计下载量破10亿次。 * 小米:发布MiMo-V2-Pro旗舰模型,总参数超1T(42B激活),混合注意力架构支持1M超长上下文,Artificial Analysis全球综合排行榜第八、国内第二,在OpenClaw等框架中端到端任务完成能力超Claude Sonnet 4.6,API定价为Opus 4.

OpenCode AI 编程保姆级使用教程:从安装到实战,效率直接拉满

OpenCode AI 编程保姆级使用教程:从安装到实战,效率直接拉满

前言 当下 AI 编程工具层出不穷,而OpenCode凭借开源免费、多模型兼容、多端适配、项目级上下文感知的核心优势,成为了程序员的新晋效率神器。它不是简单的代码补全工具,而是能真正理解项目架构、帮你从需求分析到代码落地的 AI 编码代理,支持终端、桌面应用、IDE 扩展等多种使用方式,还能对接国内外 75 + 种 LLM 模型,兼顾便捷性和代码隐私性。 本文结合 OpenCode 官方文档和实际使用经验,用最通俗易懂的语言,从安装配置、核心操作、实战技巧、高级玩法四个维度,带你彻底玩转 OpenCode,不管是编程新手还是资深开发者,都能快速上手并提升开发效率! 一、先搞懂:OpenCode 到底适合谁?有啥核心优势? 1. 适用人群 * 编程新手:不用死记硬背语法,自然语言描述需求就能生成代码,快速入门; * 资深开发者:摆脱重复编码、重构老项目、

保姆级教程:Windows本地部署Ollama+OpenClaw,打造你的AI赚钱系统(APP开发/量化/小说/剪辑)

摘要:想用AI搞钱但卡在技术门槛?本文手把手教你用一台Windows电脑,零成本本地部署Ollama大模型+OpenClaw智能中枢,赋予AI开发APP、量化分析、编写小说、剪辑辅助等“赚钱技能”。全程无需编程基础,跟着鼠标点、照着命令敲,即可拥有24小时待命的AI员工。 一、写在前面 很多朋友对AI变现跃跃欲试,却常被这些问题劝退: * 云端部署太贵,API调用怕浪费钱 * 技术文档看不懂,不知道从哪下手 * 数据隐私担忧,不敢把敏感资料上传 其实,你手头那台Windows电脑完全能胜任!本文将带你搭建一套完全本地化、免费、可扩展的AI生产力系统,让AI帮你写代码、分析表格、生成文案、处理视频,真正把AI变成你的“赚钱工具”。 系统架构: * 本地大脑:Ollama + DeepSeek模型,负责理解任务、生成内容 * 智能中枢:OpenClaw(原名OpenClaude),负责调用各类工具(Skill) * 赚钱技能:通过安装Skill包,让AI具备特定领域的实操能力 适用人群: