LLaMA-Factory 快速入门(五):终端命令实操记录

文章目录

1. 引言

在使用 LLaMA-Factory 进行大模型的微调、评估和部署时,llamafactory-cli 是最常用的命令行工具。它不仅支持命令行对话、训练、评估,还提供了网页界面、API 服务等多种交互方式。

本文将详细介绍 llamafactory-cli 的常用命令及其使用方法,帮助你快速上手并高效完成相关任务。

2. 命令使用

命令功能简述
llamafactory-cli api启动 OpenAI 风格的 API 服务
llamafactory-cli chat在命令行中启动聊天界面
llamafactory-cli eval评估模型
llamafactory-cli export合并 LoRA 适配器并导出模型
llamafactory-cli train训练模型
llamafactory-cli webchat启动网页聊天界面
llamafactory-cli webui启动 LlamaBoard 界面
llamafactory-cli version显示版本信息

2.1 version(显示版本)

功能:显示 LLaMA-Factory 的版本信息,验证安装是否成功

执行命令:

llamafactory-cli version 

执行后的效果如下:

在这里插入图片描述

2.2 webui(启动 LlamaBoard 界面)

功能:启动可视化界面 LlamaBoard,提供图形化操作入口

执行命令:

llamafactory-cli webui 

执行后返回:

在这里插入图片描述


浏览器访问:http://127.0.0.1:7860

2.3 chat(命令行聊天)

功能:接在终端中与模型进行对话,无需启动网页

最小化命令:

llamafactory-cli chat \--model_name_or_path 模型名称或本地路径 \--template 模板名称 

例如:

llamafactory-cli chat \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--template deepseekr1 

执行效果如下:

在这里插入图片描述


当然也可以从模型训练完的chekcpoint启动,命令如下:

llamafactory-cli chat \--model_name_or_path 模型名称或本地路径 \--adapter_name_or_path 训练后的路径\--template 模板名称 

例如:

llamafactory-cli chat \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--adapter_name_or_path saves/DeepSeek-R1-1.5B-Distill/lora/cx_666_final_optimized \--template deepseekr1 

2.4 webchat(网页聊天)

功能:启动网页端聊天界面

webchat的功能跟chat命令差不多,只是webchat是给了一个web页面进行对话。最小化命令如下:

llamafactory-cli webchat \--model_name_or_path 模型名称或本地路径 \--template 模板名称 

例如:

llamafactory-cli webchat \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--template deepseekr1 
在这里插入图片描述


当然也可以从模型训练完的chekcpoint启动webchat,跟chat命令差不多:

llamafactory-cli webchat \--model_name_or_path 模型名称或本地路径 \--adapter_name_or_path 训练后的路径\--template 模板名称 

2.5 api(启动 API 服务)

功能:启动 OpenAI 风格的 API 服务

最小化命令:

llamafactory-cli chat \--model_name_or_path 模型名称或本地路径 \--template 模板名称 

例如执行:

llamafactory-cli api \--model_name_or_path /Users/yanglinwei/.cache/modelscope/hub/models/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \--template deepseekr1 

可以看到输出了如下信息:

在这里插入图片描述


浏览器访问:http://localhost:8000/docs

在这里插入图片描述


可以看到开放了3种API,分别是:

接口名称路径说明
List Models/v1/models列出当前可用的模型,用于查看可选择的模型信息
Create Chat Completion/v1/chat/completions生成聊天回复,用于对话或文本生成
Create Score Evaluation/v1/score/evaluation对模型输出进行评分或评估,用于检测生成内容质量

直接执行ListModels列出当前可用的模型,可以看见返回:

在这里插入图片描述


执行Create Chat Completion,示例请求内容如下:

{"model":"deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B", "messages":[{"role":"user", "content":"你好,可以自我介绍一下吗?"}], "do_sample": true, "temperature":0.7, "top_p":0.9, "n":1, "max_tokens":512, "stream":false}

可以看到返回:

在这里插入图片描述

2.6 train(训练模型 )

功能:启动训练流程,对模型进行微调

详情可以参考:《LLaMA-Factory 快速入门(一):Mac 下大模型微调与部署全流程》

2.7 eval(评估模型 )

功能::对训练后的模型进行性能评估

详情可以参考:《LLaMA-Factory 快速入门(一):Mac 下大模型微调与部署全流程》

2.8 export(导出模型 )

功能:合并 LoRA 适配器并导出最终模型

详情可以参考:《LLaMA-Factory 快速入门(一):Mac 下大模型微调与部署全流程》

3. 总结

本文详细介绍了 LLaMA-Factory 的命令行工具 llamafactory-cli 的常用功能,包括版本检查、命令行聊天、网页聊天、可视化界面、API 服务,以及训练、评估、导出等核心操作。

  • 可以先从 chat / webchat 开始,快速体验模型效果;
  • 如果需要部署服务,建议使用 api 模式;
  • 完整训练流程中,train → eval → export 是必经的三个步骤。

通过灵活使用这些命令,大家可以快速搭建起属于自己的大模型微调与应用环境 。

Read more

AI 大模型落地系列|Eino 组件核心篇:Embedding 到底解决了什么

AI 大模型落地系列|Eino 组件核心篇:Embedding 到底解决了什么

Embedding 使用说明 * 有啥用?! * 他能干嘛? * 它不能直接干嘛? * 总结: * 浅用之法 * 食用之法 * 一、最基本用法:直接调用 `EmbedStrings` * 1. 创建 embedder * 2. 调用 `EmbedStrings` * 3. 向量拿来干嘛 * 二、完整demo * 三、带 Option 怎么用 * 四、在编排中怎么用 * 在 Chain 中使用 * 在 Graph 中使用 * 五、带 Callback 怎么用 * 六、真实场景 * 场景:做知识库问答 * 第一步:把知识库切块 * 第二步:给每个 chunk 生成向量 * 第三步:存起来

OpenClaw WebSocket Channel开发实战:从零打造自定义 AI 通信通道

OpenClaw WebSocket Channel开发实战:从零打造自定义 AI 通信通道

🎯 项目背景 为什么做这个项目? 最近 OpenClaw 特别火🔥,这是一个强大的个人 AI 助手网关,支持接入 WhatsApp、Telegram、Discord 等 15+ 个消息平台。作为一个技术爱好者,我决定深入学习一下它的架构设计。 学习目标: * ✅ 理解多通道 AI 网关的架构模式 * ✅ 掌握 OpenClaw 插件化开发技能 * ✅ 实践 WebSocket 实时双向通信 * ✅ 为社区贡献一个实用的教学案例 项目定位:这不是一个生产级项目,而是一个学习性质的教学案例,帮助其他开发者快速上手 OpenClaw 插件开发。 技术栈 前端层:Vue 3 + WebSocket ↓ 服务端:Python + aiohttp + uv ↓ 通道层:Node.js + ws + OpenClaw Plugin SDK

【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局

【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局

【保姆级】TrendRadar本地部署:告别算法推荐,打造个人专属AI热点情报局 摘要 本文基于 TrendRadar 项目,详细拆解如何通过 Docker 本地部署一套个人专属的 AI 热点情报系统。涵盖从环境准备、Docker 镜像拉取、局域网访问配置、飞书推送修复到 Cherry Studio MCP 服务对接的全流程。通过 Nvidia 免费模型 API,实现零成本的深度热点分析与趋势追踪。 关键词: TrendRadar, Docker部署, AI热点分析, MCP服务, Cherry Studio 1. 背景与需求:为什么我们需要 TrendRadar? 在这个大数据算法横行的时代,我们每天被头条、抖音等平台“投喂”大量信息,不仅容易陷入信息茧房,还浪费了大量时间筛选有效资讯。 我的核心需求很简单: 1. 拒绝算法绑架:需要一个个人定制化的新闻推送服务。 2.

LLM - 10分钟安装 OpenClaw:把 AI 管家跑在你自己的电脑上

LLM - 10分钟安装 OpenClaw:把 AI 管家跑在你自己的电脑上

文章目录 * 概述 * 一句话安装(推荐) * 1)安装前检查(避坑) * 2)安装后验证:确认"真的跑起来了" * 2.1 诊断(强烈建议) * 2.2 查看运行状态 * 2.3 打开仪表盘 * 3)备选安装方式 * 方式 A:手动全局安装(你已经有 Node/npm) * macOS 上 `sharp` 相关报错怎么办? * 方式 B:从源码安装(适合贡献/二开) * 4)常见问题排错(最常见就这一个) * "安装成功但提示 openclaw: command not found"