LLaMA Factory操作界面微调时报disable multiprocessing.

LLaMA Factory操作界面微调时报disable multiprocessing.

LLaMA Factory操作界面微调时报disable multiprocessing

陈述问题

由于显卡性能不强,微调模型时会报以下下错误,GPU内存或系统内存不足,尤其在处理大规模数据或大模型时,子进程因内存溢出崩溃。

 ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "G:\project\LLaMA-Factory\src\llamafactory\data\converter.py", line 420, in align_dataset return dataset.map( ^^^^^^^^^^^^ File "C:\Python312\Lib\site-packages\datasets\arrow_dataset.py", line 557, in wrapper out: Union["Dataset", "DatasetDict"] = func(self, *args, **kwargs) ^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "C:\Python312\Lib\site-packages\datasets\arrow_dataset.py", line 3166, in map for rank, done, content in iflatmap_unordered( File "C:\Python312\Lib\site-packages\datasets\utils\py_utils.py", line 713, in iflatmap_unordered raise RuntimeError( RuntimeError: One of the subprocesses has abruptly died during map operation.To debug the error, disable multiprocessing. 

解决思路

我们可以调整LlamaFactory 训练命令中 --preprocessing_num_workers

–preprocessing_num_workers 是 LlamaFactoryLlamaFactory(以及基于 Hugging Face 生态的大模型训练框架)中用于数据预处理阶段的核心参数,具体作用如下: 核心定义
这个参数指定了数据预处理时使用的进程 / 线程数量(这里设置为 16),用于并行处理训练数据(比如加载数据集、分词、格式化、生成
attention mask 等操作)。 具体工作机制 默认情况下,preprocessing_num_workers 为
0,意味着所有数据预处理工作都在主线程中串行执行; 设置为 16 时,框架会启动 16 个独立的 worker 进程 /
线程,同时对不同批次的数据集进行预处理,充分利用 CPU 多核资源。 实际效果 ✅ 加速数据预处理:对于大尺寸数据集(比如几万 /
几十万条样本),多 worker 并行处理能显著减少数据加载和预处理的耗时,避免训练过程中出现 “GPU 等数据” 的空闲情况; ⚠️
资源占用注意:worker 数量并非越多越好: 如果设置的数值超过你的 CPU 核心数(比如你的 CPU 只有 8 核却设为
16),会导致进程切换开销增大,反而变慢; 过多的 worker 还会占用更多内存,可能引发 OOM(内存溢出)。 适用场景
这个参数仅作用于训练前的数据预处理阶段(比如分词、数据格式化),训练过程中的计算(如前向 / 反向传播)仍由 GPU
负责,不会影响训练阶段的并行逻辑。 实用建议 推荐设置值:通常设为你的 CPU 物理核心数(比如 8 核 CPU 设为 8,16 核设为
16),或核心数的 1-2 倍; 调试阶段:如果出现数据加载报错(如 BrokenPipeError),可以先将该值设为
0(单线程)排查问题; 内存敏感场景:如果数据集样本长、内存紧张,适当降低该值(比如 8 或 4)。 总结
–preprocessing_num_workers 16 表示启用 16 个并行进程处理训练数据的预处理(分词、格式化等); 核心作用是利用多核 CPU 加速数据加载,避免 GPU 训练时等待数据; 取值需匹配 CPU
核心数,并非越大越好,否则会增加开销或导致内存不足。

解决办法

点击‘预览命令’查看命令,可以看到命令中 --preprocessing_num_workers 16 `

在这里插入图片描述

先把之前运行网页的llamafactory-cli webui的进程停了⚠️⚠️⚠️
再把命令复制到cmd执行,执行前把–preprocessing_num_workers 改小

在这里插入图片描述


看到以下界面说明已经在跑了

在这里插入图片描述


跑完之后再运行网页的llamafactory-cli webui的进程
再进到网页查看刚才的训练参数可以选择导出了

在这里插入图片描述

Read more

Janus-Pro-7B快速上手:上传图片问答+文本生成5图的零基础教程

Janus-Pro-7B快速上手:上传图片问答+文本生成5图的零基础教程 本文是专为AI新手设计的Janus-Pro-7B零基础教程,无需任何技术背景,10分钟就能学会上传图片问答和文本生成5张图片的完整操作。 1. 什么是Janus-Pro-7B? Janus-Pro-7B是一个强大的多模态AI模型,简单来说就是能同时理解图片和生成图片的智能工具。它有两个核心功能: * 看懂图片并回答问题:上传一张图片,它能描述图片内容、识别文字、回答关于图片的问题 * 文字生成图片:输入一段文字描述,它能一次性生成5张不同的图片 这个模型有74亿参数,需要16GB以上的显卡内存才能流畅运行。不过不用担心,我们只需要关注怎么使用它,技术细节交给系统处理。 2. 环境准备与快速启动 2.1 三种启动方式 Janus-Pro-7B已经预装好了,我们只需要启动它。有三种方法,推荐第一种: 方法一:使用启动脚本(最简单) cd /root/Janus-Pro-7B ./start.sh 方法二:直接启动 /opt/miniconda3/envs/py310/bin/pyth

Flowise创新应用:结合Web Scraping的数据采集流程

Flowise创新应用:结合Web Scraping的数据采集流程 1. 引言:当可视化工作流遇见数据采集 想象一下这样的场景:你需要从几十个网站上收集最新的行业数据,传统方法要么需要写复杂的爬虫代码,要么要手动复制粘贴,费时费力还容易出错。现在,有了Flowise这个可视化工具,只需要拖拽几个节点,就能搭建出智能的数据采集工作流。 Flowise是一个开源的拖拽式大语言模型工作流平台,它把复杂的技术细节封装成简单的可视化节点,让你像搭积木一样构建AI应用。特别适合不会编程但需要快速实现数据采集和分析的团队。 本文将带你了解如何用Flowise结合网页抓取功能,构建高效的数据采集流程,无需编写代码就能实现智能化的信息提取和处理。 2. Flowise核心功能快速了解 2.1 什么是Flowise? Flowise是一个在2023年开源的视觉化LLM工作流构建平台,目前已经在GitHub上获得了超过4.5万个星标。它的核心价值在于让非技术人员也能快速搭建AI应用。 简单来说,Flowise把LangChain的各种功能封装成了可视化节点,你只需要在画布上拖拽这些节点,

别再手动切图!用 ClaudeCode+Figma-MCP 实现 UI 设计 1:1 前端还原

使用 Figma-MCP 实现设计还原 Figma-MCP(Measure Copy Paste)是 Figma 的插件,能够快速提取设计稿中的间距、颜色、尺寸等参数,避免手动测量。安装后选中元素即可查看属性,按 Alt 键复制数值,直接粘贴到代码中。 配置 ClaudeCode 生成代码 ClaudeCode 是 Claude 的代码生成功能,支持根据设计参数输出前端代码。在对话中描述需求并附上 Figma-MCP 提取的数据,例如: 生成一个 React 按钮组件,参数如下: - 宽度:120px - 高度:40px - 背景色:#3B82F6 - 圆角:8px - 文字:"

前端监控体系完全指南:从错误捕获到用户行为分析(Vue 3 + Sentry + Web Vitals)

前端监控体系完全指南:从错误捕获到用户行为分析(Vue 3 + Sentry + Web Vitals)

摘要: 本文系统讲解如何搭建一套 可落地、可扩展、低成本 的前端监控系统。通过 5 层监控架构(异常捕获 → 性能度量 → 行为追踪 → 数据聚合 → 告警响应),实现 99.9% 错误覆盖率、FCP/FID/LCP 实时监控、用户操作录像回放、关键路径转化分析。包含 8 个完整代码示例、3 种采样策略对比、GDPR 合规方案 和 私有化部署指南,助你将“黑盒”前端变为“透明”可观测系统。 关键词:前端监控;Sentry;Web Vitals;Session Replay;用户行为分析;ZEEKLOG 一、为什么你需要前端监控? 1.