LLaMA-Factory 快速入门(五):终端命令实操记录

文章目录

1. 引言

在使用 LLaMA-Factory 进行大模型的微调、评估和部署时,llamafactory-cli 是最常用的命令行工具。它不仅支持命令行对话、训练、评估,还提供了网页界面、API 服务等多种交互方式。

本文将详细介绍 llamafactory-cli 的常用命令及其使用方法,帮助你快速上手并高效完成相关任务。

2. 命令使用

命令功能简述
llamafactory-cli api启动 OpenAI 风格的 API 服务
llamafactory-cli chat在命令行中启动聊天界面
llamafactory-cli eval评估模型
llamafactory-cli export合并 LoRA 适配器并导出模型
llamafactory-cli train训练模型
llamafactory-cli webchat启动网页聊天界面
llamafactory-cli webui启动 LlamaBoard 界面
llamafactory-cli version显示版本信息

2.1 version(显示版本)

功能:显示 LLaMA-Factory 的版本信息,验证安装是否成功

执行命令:

llamafactory-cli version 

执行后的效果如下:

在这里插入图片描述

2.2 webui(启动 LlamaBoard 界面)

功能:启动可视化界面 LlamaBoard,提供图形化操作入口

执行命令:

llamafactory-cli webui 

执行后返回:

在这里插入图片描述


浏览器访问:http://127.0.0.1:7860

2.3 chat(命令行聊天)

功能:接在终端中与模型进行对话,无需启动网页

最小化命令:

llamafactory-cli chat \--model_name_or_path 模型名称或本地路径 \--template 模板名称 

例如:

llamafactory-cli chat \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--template deepseekr1 

执行效果如下:

在这里插入图片描述


当然也可以从模型训练完的chekcpoint启动,命令如下:

llamafactory-cli chat \--model_name_or_path 模型名称或本地路径 \--adapter_name_or_path 训练后的路径\--template 模板名称 

例如:

llamafactory-cli chat \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--adapter_name_or_path saves/DeepSeek-R1-1.5B-Distill/lora/cx_666_final_optimized \--template deepseekr1 

2.4 webchat(网页聊天)

功能:启动网页端聊天界面

webchat的功能跟chat命令差不多,只是webchat是给了一个web页面进行对话。最小化命令如下:

llamafactory-cli webchat \--model_name_or_path 模型名称或本地路径 \--template 模板名称 

例如:

llamafactory-cli webchat \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--template deepseekr1 
在这里插入图片描述


当然也可以从模型训练完的chekcpoint启动webchat,跟chat命令差不多:

llamafactory-cli webchat \--model_name_or_path 模型名称或本地路径 \--adapter_name_or_path 训练后的路径\--template 模板名称 

2.5 api(启动 API 服务)

功能:启动 OpenAI 风格的 API 服务

最小化命令:

llamafactory-cli chat \--model_name_or_path 模型名称或本地路径 \--template 模板名称 

例如执行:

llamafactory-cli api \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--template deepseekr1 

可以看到输出了如下信息:

在这里插入图片描述


浏览器访问:http://localhost:8000/docs

在这里插入图片描述


可以看到开放了3种API,分别是:

接口名称路径说明
List Models/v1/models列出当前可用的模型,用于查看可选择的模型信息
Create Chat Completion/v1/chat/completions生成聊天回复,用于对话或文本生成
Create Score Evaluation/v1/score/evaluation对模型输出进行评分或评估,用于检测生成内容质量

直接执行ListModels列出当前可用的模型,可以看见返回:

在这里插入图片描述


执行Create Chat Completion,示例请求内容如下:

{"model":"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B", "messages":[{"role":"user", "content":"你好,可以自我介绍一下吗?"}], "do_sample": true, "temperature":0.7, "top_p":0.9, "n":1, "max_tokens":512, "stream":false}

可以看到返回:

在这里插入图片描述

2.6 train(训练模型 )

功能:启动训练流程,对模型进行微调

详情可以参考:《LLaMA-Factory 快速入门(一):Mac 下大模型微调与部署全流程》

2.7 eval(评估模型 )

功能::对训练后的模型进行性能评估

详情可以参考:《LLaMA-Factory 快速入门(一):Mac 下大模型微调与部署全流程》

2.8 export(导出模型 )

功能:合并 LoRA 适配器并导出最终模型

详情可以参考:《LLaMA-Factory 快速入门(一):Mac 下大模型微调与部署全流程》

3. 总结

本文详细介绍了 LLaMA-Factory 的命令行工具 llamafactory-cli 的常用功能,包括版本检查、命令行聊天、网页聊天、可视化界面、API 服务,以及训练、评估、导出等核心操作。

  • 可以先从 chat / webchat 开始,快速体验模型效果;
  • 如果需要部署服务,建议使用 api 模式;
  • 完整训练流程中,train → eval → export 是必经的三个步骤。

通过灵活使用这些命令,大家可以快速搭建起属于自己的大模型微调与应用环境 。

Read more

OpenClaw 飞书机器人配置教程|一键对接飞书,实现聊天下达 AI 指令

OpenClaw 飞书机器人配置教程|一键对接飞书,实现聊天下达 AI 指令

适配版本:OpenClaw v2.3.12/v2.4.1(小龙虾)前置要求:已部署 OpenClaw Windows 端(Win10/Win11 均可),未部署可先下载一键部署包完成安装核心效果:配置完成后,可在飞书聊天窗口直接向机器人发送自然语言指令,OpenClaw 自动拆解任务、操控电脑完成操作,实现飞书远程下达 AI 任务 📌 OpenClaw Windows 一键部署包下载地址🔗 OpenClaw Windows 一键部署包 v2.3.12✅ 免配置、免命令行、解压即用,内置所有运行依赖,部署完成后再进行飞书配置即可 (此教程配合这个安装包使用) 一、配置前必看 1. 需拥有飞书账号,个人 / 企业账号均可,企业账号需确保有应用开发权限 2. OpenClaw

本地部署中文OpenClaw 飞书机器人部署指南

本地部署中文OpenClaw 飞书机器人部署指南

适用场景:在 Windows 本地(PowerShell)一键部署 OpenClaw,使用阿里云百炼作为大模型后端,通过飞书长连接模式实现 AI 机器人。 安装skills工具参考:OpenClaw 最新必安装 10 个 Skills-ZEEKLOG博客 自动化发布小红书:OpenClaw 实现小红书自动化发文:操作指南 步骤 1:安装 OpenClaw(openclaw中文社区) 1. 打开 PowerShell。 2. 执行以下命令一键安装: # 在 PowerShell 中运行 iwr -useb https://clawd.org.cn/install.ps1 | iex * 安装过程会自动下载 Node.js、依赖等,耗时几分钟。 * 安装完成后会自动进入配置向导,或提示你继续下一步。

ComfyUI Manager高效管理指南:提升AI绘画工作流的核心工具

ComfyUI Manager高效管理指南:提升AI绘画工作流的核心工具 【免费下载链接】ComfyUI-Manager 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Manager ComfyUI Manager是AI绘画爱好者不可或缺的效率工具,它通过集中管理插件、模型和环境配置,帮助用户轻松扩展ComfyUI功能,优化工作流程。本文将从功能价值、场景化应用到问题解决,全面介绍如何利用这一工具提升创作效率。 评估环境价值:系统兼容性检查 在开始使用ComfyUI Manager前,确保系统环境满足基本要求是避免后续问题的关键步骤。这不仅关系到工具能否正常运行,也影响到后续插件和模型的兼容性。 执行系统兼容性验证 1. 检查Python版本 * 方法一:终端执行python --version或python3 --version 2. 验证Git安装状态 * 基础检查:git --version * 进阶验证:git config --global --list确认用户配置 3. 评估系统资

FPGA商用级ISP:动态坏点校正(DPCC)的滑窗架构与并行判决实现

FPGA商用级ISP:动态坏点校正(DPCC)的滑窗架构与并行判决实现

【写在前面:为什么要写这个专栏?】 在数字图像处理领域,ISP(图像信号处理器)的算法原理并不罕见,但真正能够支持 4K@60fps 实时处理、并经过商用验证的 Verilog 硬核实现思路 却往往秘和封装在黑盒之中。 我手里有一套商用级的 ISP 源码,通过对其进行深度拆解,我希望能够分析并抽象出其背后的设计逻辑。这不仅是对高性能图像处理架构的复盘,更是希望能为广大 FPGA 开发者和 ISP 算法工程师提供一个硬核的设计基线(Baseline)。通过分享这些商用 IP 的实现细节,我希望能帮助更多人了解如何将复杂的图像算法转化为高效的硬件流水线,为行业提供一份有价值的参考。 1. 深度解析:为什么“商用级”坏点校正极其困难? 在传感器(Sensor)制造中,由于半导体工艺缺陷或后期老化,不可避免会出现常亮像素(Hot Pixel)或死像素(Dead Pixel)。 * 痛点一:误杀边缘。 如果只是简单的中值滤波,图像中真实的星星、