大模型训练:LLaMA-Factory快速上手

第1步:安装环境

git clone https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory # 推荐使用 conda conda create -n llama-factory python=3.10 conda activate llama-factory pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 pip install -r requirements.txt pip install -e ".[torch,metrics]"
⚠️ 注意:推荐使用 CUDA 环境,GPU 显存建议 ≥24GB(如 3090/4090)

第2步:准备数据

支持多种格式,最常用的是 Alpaca 格式 JSON 文件

[{"instruction":"写一首关于春天的诗","input":"","output":"春风拂面花自开,柳绿桃红映山川..."},{"instruction":"解释什么是机器学习","input":"","output":"机器学习是让计算机从数据中自动学习规律的技术..."}]

📌 存为 my_data.json,放在 data/ 目录下。


第3步:启动训练-多GPU(以 LoRA 微调 Qwen-7B 为例)

参考examples/accelerate 下面的文件,准备自己的yaml文件

compute_environment: LOCAL_MACHINE debug: false distributed_type: MULTI_GPU downcast_bf16:'no' gpu_ids:0,1,2,3 machine_rank:0 main_training_function: main mixed_precision: fp16 num_machines:1 num_processes:4 rdzv_backend:static same_network: true tpu_env:[] tpu_use_cluster: false tpu_use_sudo: false use_cpu: false main_process_port:29503

启用多GPU训练

#!/bin/bashCUDA_VISIBLE_DEVICES=4,5,6,7 accelerate launch --config_file config.yaml ../src/train.py \ --stage sft \ --do_train True\ --template qwen3 \ --finetuning_type lora \ --model_name_or_path ../Qwen/Qwen3-0.6B \ --dataset_dir ./vehicle_control_dataset \ --dataset my_data \ --output_dir ./saves \ --overwrite_cache \ --overwrite_output_dir \ --cutoff_len 1024\ --per_device_train_batch_size 1\ --per_device_eval_batch_size 1\ --gradient_accumulation_steps 8\ --lr_scheduler_type cosine \ --max_grad_norm 1.0\ --logging_steps 10\ --save_steps 200\ --warmup_steps 0\ --learning_rate 5e-5 \ --num_train_epochs 3.0\ --max_samples 100000\ --fp16 True \ --lora_rank 8\ --lora_dropout 0.1\ --lora_target all \ --plot_loss True 

Read more

faster-whisper极速安装指南:3分钟搞定AI语音转文字

还在为语音转文字的慢速度而烦恼吗?faster-whisper来拯救你!这款基于OpenAI Whisper模型的优化版本,通过CTranslate2推理引擎实现了4倍速的语音识别,同时保持相同的准确率。无论你是开发者还是技术爱好者,这篇指南将带你轻松上手这个强大的AI语音识别工具。 【免费下载链接】faster-whisper 项目地址: https://gitcode.com/gh_mirrors/fas/faster-whisper 🚀 一分钟快速安装 安装faster-whisper就像呼吸一样简单!只需要一个命令: pip install faster-whisper 是的,就这么简单!Python包管理器会自动处理所有依赖关系,让你在几秒钟内就能开始使用这个强大的语音转文字工具。 VAD语音活动检测模块 - 智能过滤静音片段 🛠️ 硬件环境准备 基础要求 * Python 3.8或更高版本 * 支持CUDA的NVIDIA GPU(推荐)或普通CPU GPU用户专属配置 如果你拥有NVIDIA显卡,为了获得最佳性能,需要安装以下组件:

Z-Image-Turbo极速体验:5分钟生成电影级高清壁纸,新手也能玩转AI绘画

Z-Image-Turbo极速体验:5分钟生成电影级高清壁纸,新手也能玩转AI绘画 引言:一张壁纸,真的要等10分钟吗? 上周我给手机换了新壁纸,想找个“赛博朋克风的雨夜东京街景”,结果在本地跑了一个小时,生成了23张图——其中17张是黑的,4张构图崩坏,剩下2张勉强能用,但分辨率糊得连霓虹灯都像打了马赛克。 直到我点开Z-Image-Turbo极速云端创作室的界面,输入一句英文描述,按下“ 极速生成”按钮,3.2秒后,一张1024×1024、细节拉满、光影如电影镜头般的高清壁纸,直接铺满了整个屏幕。 没有安装、没有报错、没有调参、没有黑图。你不需要懂CFG、不懂采样器、甚至不用记英文单词——只要你会说“我想看什么”,它就能立刻画给你看。 这不是未来,是现在;不是Demo,是开箱即用的生产力工具。今天这篇文章,就带你用5分钟时间,从零开始生成属于你的第一张电影级壁纸,并真正理解:为什么Z-Image-Turbo能让“AI绘画”这件事,第一次变得像发微信一样自然。 1.

Qwen-Image-Edit-2511与Stable Diffusion对比,谁更适合编辑?

Qwen-Image-Edit-2511与Stable Diffusion对比,谁更适合编辑? 图像编辑正从“修图工具”走向“语义级视觉重构”,而选择一款真正适合编辑任务的模型,远比选生成模型更考验工程直觉。Qwen-Image-Edit-2511 和 Stable Diffusion(尤其是 SDXL Turbo、SDXL Refiner 及其编辑插件如 Inpaint Anything、ControlNet+Inpainting 工作流)常被拿来比较——但它们本质不同:一个是原生为编辑而生的端到端架构,另一个是以生成为核心、靠插件和提示工程“改造”出编辑能力的通用扩散模型。 本文不谈参数、不列FID分数,而是聚焦一个最朴素的问题:当你手头有一张产品图、一张人像、一张工业设计稿,需要精准替换背景、保持人物不变地换装、给机械结构添加透视线、或让多人合影在风格迁移后仍不“串脸”——哪款工具能让你少调参、少试错、少返工?我们用真实编辑任务说话。 1. 设计哲学差异:编辑即目的,还是生成的副产品?

llama.cpp + llama-server 的安装部署验证

飞桨AI Studio星河社区-人工智能学习与实训社区 用的是 魔塔的免费资源 不太稳定 我的Notebook · 魔搭社区 cat /etc/os-release  Ubuntu 22.04.5 LTS (Jammy Jellyfish) —— 这是一个长期支持(LTS)且完全受支持的现代 Linux 发行版,非常适合部署 llama.cpp + llama-server。Ubuntu 22.04 自带较新的 GCC(11+)、CMake(3.22+)和 Python 3.10+,无需手动升级工具链,部署过程非常顺畅。 一、安装系统依赖 sudo apt update sudo apt install -y