下载llama factory

llama-factory是一个零代码大模型训练平台,可以快速搭建模型训练环境,并提供丰富的模型训练功能。可以选择前往github下载llama-factory项目的压缩包。但我下面是直接命令行下载的,但其实差不多,就是不用git clone https://gitee.com/hiyouga/LLaMA-Factory.git下载,自己手动下载到本地。



用框架自带的requirements.txt去下载安装相关依赖,完全匹配当前分支的依赖版本,避免 “手动指定版本出错”。

安装好后可以执行llamafactory-cli version来快速校验安装是否成功,如下界面就是安装成功了,然后执行运行webui.py的代码就可以得到下图界面





当你选择大模型时可以发现有很多版本,这些模型名称中的后缀(Chat/Math/Base)代表不同的模型定位和用途,针对 “微调大模型” 的需求,选择逻辑如下:





下面时出现的一些下载情况,走了很多弯路,为啥下面我一开始非要单独下载一些依赖,导致很多依赖的版本都互相冲突。所以下面内容可以不看。
在anaconda中创建

出现如下报错



当我下载安装好git就可以了,注意下载时,可以放在自己想放的位置,其实不同在本地cmd中执行也可,在虚拟环境下是一样的。





注意执行 下面的llamafactory核心依赖时,要在llamafactory的根目录下执行,不然会出下面如下报错

问题不是路径本身的问题,也不是 “虚拟环境存储路径” 的问题,而是你执行 pip install -e ".[torch,metrics]" 时,当前目录不是 LlamaFactory 的代码根目录—— 这条命令必须在包含 setup.py/pyproject.toml 的 LlamaFactory 文件夹内执行,否则 pip 找不到安装配置文件,自然会报错。

之前用 git clone 下载的 LlamaFactory 代码,完整路径应该是:D:\software\liulanqi\weitiao\llamafactory\warehouse\LLaMA-Factory(进入这个文件夹,能看到 setup.pywebui.pyrequirements.txt 等文件,就是正确目录。在对应目录下执行下面这条命令就可以

之前在 warehouse 目录执行 pip install torch 能成功,但执行 pip install -e ".[torch,metrics]" 失败,核心是这两条 pip 命令的逻辑完全不同—— 前者是 “安装公共库”,后者是 “安装当前目录下的本地项目”(LlamaFactory 这个开源项目),核心依赖当前目录的配置文件。


如上图所示还是出现了问题,这是安装numpy时触发的编译环境缺失错误,原因是 Windows 系统缺少 C/C++ 编译器(比如 Visual Studio 的编译工具),导致numpy无法从源码编译安装。



这样就可以顺利安装好依赖了。

如下命令安装可选依赖

执行第二条命令时出现如图报错



这个报错是依赖版本冲突:安装bitsandbytes时,pip 自动把你的torch版本升级到了2.9.1,但原来的torchaudiotorchvision是依赖torch==2.1.0+cu121的,新版本torch 2.9.1和它们不兼容。

执行完上面代码觉得可以了后,通过使用 llamafactory-cli version 来快速校验安装是否成功。出现如下图报错,transformers 库版本与 torch 版本不兼容导致的:因为transformers 新版本用到了 torch.utils._pytree.register_pytree_node,但你当前的 torch 2.1.0 中这个接口还没开放(或命名不同)。



但是明明没手动执行pip install transformers,但transformers却出现在环境里,核心原因是执行pip install -e ".[torch,metrics]"时,pip 会自动下载 / 安装 LlamaFactory 声明的依赖,transformers就是其中之一--no-deps如何阻断这个自动下载?不加--no-deps:pip 会 “先装依赖,再关联 LlamaFactory”,且优先装最新版依赖(导致 transformers 升级到 4.36+);加--no-deps:pip 会 “跳过所有依赖的安装 / 升级,只关联 LlamaFactory”,完全不碰 transformers、torch 等库。

先卸载

正确的依赖安装顺序

但安装第一步时发现如下报错,卸载再去安装又和别的依赖冲突了。



报错太多实在时一直出现版本安装问题,直接执行pip check会很清晰。



发现处理pip check,还有如下命令可以很好的查看依赖情况。



因为出现的依赖问题太多,后来我直接删除了虚拟环境,重新下载依赖





这是之前发现的一些问题。

发现下图问题,下载的 LlamaFactory 代码包不完整 / 分支不对,导致缺少 Web UI 核心文件(webui.py),可能用git clone --depth 1只克隆了最新版本,但如果仓库的默认分支没有 Web UI 文件,就会缺失,但其实明明webui.py文件就在src文件下。这个ai骗我。

考虑到上面出现的两个问题,所以下面打算清除之前下载的内容(下载的llamafactory框架,就是删除这个文件夹即可),重新来下载。

如下重新下载,注意可以切换到自己想要的路径下下载,可以在cmd中下载,也可以在虚拟环境中执行。



Read more

旧电脑 Win7 复活计划:编译与运行 llama.cpp (Qwen3版)

旧电脑 Win7 复活计划:编译与运行 llama.cpp (Qwen3版)

🦕 旧电脑 Win7 复活计划:编译与运行 llama.cpp (Qwen3版) 这份指南专为不支持新版软件的 Windows 7 设计,通过本地编译实现大模型运行。 手动编译可以获得最好的性能,不想自己手动编译 可以直接使用下面编译好的bin文件,同时包含下面用到的相关软件和替换文件httplib.h 链接:https://pan.quark.cn/s/2c5f627c93d7 提取码:cSJh 📋 0. 软件版本清单 请务必确保使用以下特定版本,以保证在 Win7 下的兼容性: 软件名称文件名 (根据截图)作用备注编译环境w64devkit-x64-2.5.0.7z.exe提供 GCC 编译器核心工具构建工具cmake-3.31.10-windows-x86_64.msi生成编译配置必须安装到默认路径源码工具Git_for_Windows_(64bit)_v2.45.

终极免费语音转文字:Whisper本地部署完整指南

终极免费语音转文字:Whisper本地部署完整指南 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 还在为会议记录和课程笔记头疼吗?想要快速将音频内容转换为可编辑文字?OpenAI Whisper语音识别技术让你在完全离线的环境下实现专业级语音转文字功能,保护隐私的同时大幅提升工作效率! 🎯 为什么选择本地语音识别方案 在数字化时代,语音内容处理需求激增,但云端服务的隐私风险和网络依赖让人担忧。Whisper的本地部署方案完美解决了这些痛点: * 绝对隐私保护:所有处理都在本地设备完成,敏感内容无需上传 * 离线工作能力:无需网络连接,随时随地处理音频文件 * 多语言智能识别:支持99种语言的准确识别和翻译 * 专业级准确率:深度学习算法确保转录准确度高达98% 语音识别应用场景 🚀 五分钟快速上手教程 准备工作:环境配置 首先确保你的设备具备以下基础条件: * Python 3.8或更高版本 * FFmpeg多媒体处理工

AIGC赋能Java编程:智能工具引领效率、创新与理解的新纪元

AIGC赋能Java编程:智能工具引领效率、创新与理解的新纪元

文章目录 * 1. AIGC驱动的智能代码补全与生成 * 2. AIGC助力错误检测与即时修复 * 3. AIGC推动代码优化与智能重构 * 4. AIGC在自动化测试中的应用 * 5. AIGC在智能文档生成与代码理解中的作用 * 《Java面向对象程序设计:AI大模型给程序员插上翅膀》 * 亮点 * 内容简介 * 目录 * 《Python金融大数据分析》 * 亮点 * 内容简介 * 目录 在软件开发领域,Java作为一种历史悠久且广泛应用的编程语言,凭借其强大的跨平台能力、丰富的API和广泛的社区支持,一直是众多开发者的首选。近年来,随着人工智能生成内容(AIGC, Artificial Intelligence Generated Content)技术的迅猛发展,AI工具正逐步渗透到Java编程的各个环节,从代码编写、调试、优化到文档生成,为开发者提供了前所未有的便利和创新机会。 1. AIGC驱动的智能代码补全与生成 AIGC工具利用深度学习和自然语言处理技术,能够准确理解开发者的意图,提供智能的代码补全建议,甚至

VsCode远程Copilot无法使用Claude Agent问题

最近我突然发现vscode Copilot中Claude模型突然没了,我刚充的钱啊!没有Claude我还用啥Copilot 很多小伙伴知道要开代理,开完代理后确实Claude会出来,本地使用是没有任何问题的,但是如果使用远程ssh的话,会出现访问异常,连接不上的情况。这时候很多小伙伴就在网上寻找方法,在vscode setting中添加这么一段代码。可以看看这篇博客 "http.proxy": "http://127.0.0.1:1082", "remote.extensionKind": { "GitHub.copilot": [ "ui" ], "GitHub.copilot-chat": [ "ui" ], "pub.name": [ "ui&