大模型训练:LLaMA-Factory快速上手

第1步:安装环境

git clone https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory # 推荐使用 conda conda create -n llama-factory python=3.10 conda activate llama-factory pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 pip install -r requirements.txt pip install -e ".[torch,metrics]"
⚠️ 注意:推荐使用 CUDA 环境,GPU 显存建议 ≥24GB(如 3090/4090)

第2步:准备数据

支持多种格式,最常用的是 Alpaca 格式 JSON 文件

[{"instruction":"写一首关于春天的诗","input":"","output":"春风拂面花自开,柳绿桃红映山川..."},{"instruction":"解释什么是机器学习","input":"","output":"机器学习是让计算机从数据中自动学习规律的技术..."}]

📌 存为 my_data.json,放在 data/ 目录下。


第3步:启动训练-多GPU(以 LoRA 微调 Qwen-7B 为例)

参考examples/accelerate 下面的文件,准备自己的yaml文件

compute_environment: LOCAL_MACHINE debug: false distributed_type: MULTI_GPU downcast_bf16:'no' gpu_ids:0,1,2,3 machine_rank:0 main_training_function: main mixed_precision: fp16 num_machines:1 num_processes:4 rdzv_backend:static same_network: true tpu_env:[] tpu_use_cluster: false tpu_use_sudo: false use_cpu: false main_process_port:29503

启用多GPU训练

#!/bin/bashCUDA_VISIBLE_DEVICES=4,5,6,7 accelerate launch --config_file config.yaml ../src/train.py \ --stage sft \ --do_train True\ --template qwen3 \ --finetuning_type lora \ --model_name_or_path ../Qwen/Qwen3-0.6B \ --dataset_dir ./vehicle_control_dataset \ --dataset my_data \ --output_dir ./saves \ --overwrite_cache \ --overwrite_output_dir \ --cutoff_len 1024\ --per_device_train_batch_size 1\ --per_device_eval_batch_size 1\ --gradient_accumulation_steps 8\ --lr_scheduler_type cosine \ --max_grad_norm 1.0\ --logging_steps 10\ --save_steps 200\ --warmup_steps 0\ --learning_rate 5e-5 \ --num_train_epochs 3.0\ --max_samples 100000\ --fp16 True \ --lora_rank 8\ --lora_dropout 0.1\ --lora_target all \ --plot_loss True 

Read more

ToDesk重磅更新, 硬核-ToClaw AI 实现科技新闻日报自动化实战

ToDesk重磅更新, 硬核-ToClaw AI 实现科技新闻日报自动化实战

一、前言 最近发现ToDesk悄悄更新,直接内置了 ToClaw 龙虾AI,真的格外惊喜!之前看中轻量化OpenClaw却被繁琐的本地部署、代码搭建劝退,如今不用任何前置准备,打开就能用。刚好我想做一款省心的每日科技新闻自动播报工具,省去手动搜资讯的麻烦,索性直接实测,从功能上手、实操任务到同类对比,全程分享真实体验,不吹不黑,看看这款桌面AI助手到底好不好用。 二、界面与入口 最新版ToDesk的 ToClaw 入口设在首页醒目位置,我下载的是4.8.7.1版本。 不用翻找多级菜单,打开就能快速定位,上手零难度,点开直接进入交互界面,操作极简高效。 启动ToClaw后会自动生成专属悬浮窗,支持全局一键唤醒,不管是办公、整理文件还是使用其他软件,都能随时呼出AI,不用切换界面,日常使用便捷度拉满,实测顺手不耽误手头操作。 三、核心架构 简单说下ToClaw的底层逻辑,OpenClaw并非独立运算模型,而是轻量化交互载体,负责衔接用户与AI核心算力,不占用过多内存,这也是它轻量化的关键,所有智能处理全靠底层内核支撑,

当前好用的 AI 辅助编程工具有哪些?一篇看懂 2026 年主流选择

这两年,AI 辅助编程已经从“代码补全工具”升级成了“能读仓库、改文件、跑命令、帮你推进任务的开发搭子”。如果你今天还只把它理解成自动补全,那基本已经落后一代了。现在真正拉开差距的,不是谁能补全一行代码,而是谁更适合你的工作流:是在 IDE 里稳稳写代码,还是像 Agent 一样跨文件改项目,甚至直接在终端里完成一整段开发任务。  从 2026 年的产品形态来看,主流工具大致可以分成三类。第一类是 IDE 内协作型,代表是 GitHub Copilot 和 JetBrains AI;第二类是 Agent / 仓库级改造型,代表是 Cursor、Windsurf、Claude Code、Codex;第三类是 平台一体化型,代表是 Replit 和 Amazon Q

人工智能:自然语言处理在医疗领域的应用与实战

人工智能:自然语言处理在医疗领域的应用与实战

人工智能:自然语言处理在医疗领域的应用与实战 学习目标 💡 理解自然语言处理(NLP)在医疗领域的应用场景和重要性 💡 掌握医疗领域NLP应用的核心技术(如电子病历分析、医学文本分类、智能问答) 💡 学会使用前沿模型(如BERT、GPT-3)进行医疗文本分析 💡 理解医疗领域的特殊挑战(如数据隐私、多语言处理、专业术语) 💡 通过实战项目,开发一个电子病历分析应用 重点内容 * 医疗领域NLP应用的主要场景 * 核心技术(电子病历分析、医学文本分类、智能问答) * 前沿模型(BERT、GPT-3)在医疗领域的使用 * 医疗领域的特殊挑战 * 实战项目:电子病历分析应用开发 一、医疗领域NLP应用的主要场景 1.1 电子病历分析 1.1.1 电子病历分析的基本概念 电子病历分析是对电子病历中的文本内容进行分析和处理的过程。在医疗领域,电子病历分析的主要应用场景包括: * 病历摘要:自动生成病历摘要(如“患者基本信息”、“病情描述”

2026 年 Python AI 大模型部署全攻略:本地运行 + API 服务 + Docker 封装

2026 年 Python AI 大模型部署全攻略:本地运行 + API 服务 + Docker 封装

随着开源大模型的爆发式增长,2026 年在本地与服务端部署 AI 大模型已成为开发者的核心技能。本文将从本地运行、API 服务化、Docker 容器封装三个维度,给出完整的生产级部署方案。 一、整体架构概览 开发调试 团队协作 生产交付 模型选择与下载 部署方式 本地直接运行 API 服务化 Docker 容器封装 llama.cpp / vLLM / Ollama FastAPI + vLLM / TGI Dockerfile + docker-compose 性能调优 监控与运维 二、模型选型与技术栈(2026 主流方案) 维度推荐方案适用场景本地推理llama.cpp / Ollama个人开发、低资源环境GPU 推理vLLM / TGI高并发、低延迟API 框架FastAPI轻量、高性能容器化Docker + NVIDIA Container Toolkit标准化部署编排docker-compose