源码解析:BreadcrumbsLLaMA-Factory/src/llamafactory/train/rm/workflow.py

源码解析:BreadcrumbsLLaMA-Factory/src/llamafactory/train/rm/workflow.py
if TYPE_CHECKING:
    from transformers import Seq2SeqTrainingArguments, TrainerCallback

    from ...hparams import DataArguments, FinetuningArguments, ModelArguments


def run_rm(
    model_args: "ModelArguments",
    data_args: "DataArguments",
    training_args: "Seq2SeqTrainingArguments",
    finetuning_args: "FinetuningArguments",
    callbacks: Optional[List["TrainerCallback"]] = None,
):
    tokenizer_module = load_tokenizer(model_args)
    tokenizer = tokenizer_module["tokenizer"]
    dataset = get_dataset(model_args, data_args, training_args, stage="rm", **tokenizer_module)
    model = load_model(tokenizer, model_args, finetuning_args, training_args.do_train, add_valuehead=True)
    data_collator = PairwiseDataCollatorWithPadding(tokenizer, pad_to_multiple_of=8)

    # Update arguments
    training_args.remove_unused_columns = False  # important for pairwise dataset

    # Initialize our Trainer
    trainer = PairwiseTrainer(
        model=model,
        args=training_args,
        finetuning_args=finetuning_args,
        data_collator=data_collator,
        callbacks=callbacks + [FixValueHeadModelCallback()],
        compute_metrics=compute_accuracy,
        **tokenizer_module,
        **split_dataset(dataset, data_args, training_args),
    )

这段Python代码定义了一个名为 run_rm 的函数,似乎用于运行机器学习模型的训练或微调过程,考虑到使用了分词器和数据集,该过程可能与自然语言处理有关。这段代码构建的方式兼容 transformers 库,并专门处理序列到序列的模型。下面我将逐部分解释代码的内容:

导入和类型检查

python

复制

if TYPE_CHECKING:
    from transformers import Seq2SeqTrainingArguments, TrainerCallback
    from ...hparams import DataArguments, FinetuningArguments, ModelArguments

此代码块检查是否启用了类型检查(通常与如 mypy 这样的静态类型检查器一起使用)。如果启用,则导入所需的类,这些类定义了模型训练所需的不同配置和参数。

函数定义

python

复制

def run_rm(
    model_args: "ModelArguments",
    data_args: "DataDataArguments",
    training_args: "Seq2SeqTrainingArguments",
    finetuning_args: "FinetuningArguments",
    callbacks: Optional[List["TrainerCallback"]] = None,
):

这是 run_rm 函数的定义。它接受几个参数:

  • model_args:与模型相关的配置。
  • data_args:与数据处理相关的配置。
  • training_args:训练特定的参数,这里是针对序列到序列模型的。
  • finetuning_args:微调模型的特定参数。
  • callbacks:在训练过程中调用的回调函数列表,可以在训练循环的不同阶段修改行为。

分词器和数据集准备

python

复制

tokenizer_module = load_tokenizer(model_args)
tokenizer = tokenizer_module["tokenizer"]
dataset = get_dataset(model_args, data_args, training_args, stage="rm", **tokenizer_module)
  • load_tokenizer(model_args): 根据模型参数加载分词器。
  • get_dataset(...): 使用分词器和其他设置加载或准备训练数据集。

模型和数据整理器初始化

python

复制

model = load_model(tokenizer, model_args, finetuning_args, training_args.do_train, add_valuehead=True)
data_collator = PairwiseDataCollatorWithPadding(tokenizer, pad_to_multiple_of=8)
  • load_model(...): 加载模型,并根据需要添加额外的值头(由 add_valuehead=True 指定)。
  • PairwiseDataCollatorWithPadding(...): 准备一个数据整理器,处理数据的填充,以确保批次的统一性,特别是为了效率将填充设置为8的倍数。

更新训练参数

python

复制

training_args.remove_unused_columns = False  # important for pairwise dataset
  • 调整训练参数,以便不从数据集中移除未使用的列,这在使用附加数据列进行训练(例如,用于辅助任务或度量)时很重要。

初始化训练器

python

复制

trainer = PairwiseTrainer(
    model=model,
    args=training_args,
    finetuning_args=finetuning_args,
    data_collator=data_collator,
    callbacks=callbacks + [FixValueHeadModelCallback()],
    compute_metrics=compute_accuracy,
    **tokenizer_module,
    **split_dataset(dataset, data_args, training_args),
)

此部分初始化了一个 PairwiseTrainer,这看起来是一个自定义类,可能是扩展了 transformers 库中标准训练器类:

  • 添加了 FixValueHeadModelCallback() 回调,可能用于训练过程中调整模型。
  • compute_metrics:计算训练期间的度量,这里设置为 compute_accuracy
  • **tokenizer_module**split_dataset(...):传递额外的分词器设置和分割数据集信息。

这个函数可能是针对特定任务(如排名或匹配)设计的较大框架的一部分,鉴于使用了成对数据处理和特定的值头调整回调。

# Training
    if training_args.do_train:
        train_result = trainer.train(resume_from_checkpoint=training_args.resume_from_checkpoint)
        trainer.save_model()
        if training_args.should_save:
            fix_valuehead_checkpoint(model, training_args.output_dir, training_args.save_safetensors)
        trainer.log_metrics("train", train_result.metrics)
        trainer.save_metrics("train", train_result.metrics)
        trainer.save_state()
        if trainer.is_world_process_zero() and finetuning_args.plot_loss:
            plot_loss(training_args.output_dir, keys=["loss", "eval_loss", "eval_accuracy"])

    # Evaluation
    if training_args.do_eval:
        metrics = trainer.evaluate(metric_key_prefix="eval")
        trainer.log_metrics("eval", metrics)
        trainer.save_metrics("eval", metrics)

    # Predict
    if training_args.do_predict:
        predict_results = trainer.predict(dataset, metric_key_prefix="predict")
        trainer.log_metrics("predict", predict_results.metrics)
        trainer.save_metrics("predict", predict_results.metrics)
        trainer.save_predictions(predict_results)

    # Create model card
    create_modelcard_and_push(trainer, model_args, data_args, training_args, finetuning_args)

以下是关于奖励模型(reward model)相关训练代码的逐行解释,该代码涉及训练、评估、预测以及创建模型卡片的过程:

训练部分

python

复制

# Training
if training_args.do_train:

如果训练参数 (training_args) 中的 do_train 为真,则执行以下的训练代码块。

python

复制

    train_result = trainer.train(resume_from_checkpoint=training_args.resume_from_checkpoint)

使用 trainer 对象开始训练过程。如果有指定从某个检查点恢复,resume_from_checkpoint 参数将用于指定从哪个检查点文件继续训练。

python

复制

    trainer.save_model()

在训练后保存模型。

python

复制

    if training_args.should_save:
        fix_valuehead_checkpoint(model, training_args.output_dir, training_args.save_safetensors)

如果训练参数中指定需要保存模型,调用 fix_valuehead_checkpoint 函数来处理和保存模型检查点,可能涉及到特定的保存逻辑,如安全张量的保存。

python

复制

    trainer.log_metrics("train", train_result.metrics)

记录训练过程中产生的度量指标。

python

复制

    trainer.save_metrics("train", train_result.metrics)

保存训练过程中的度量指标。

python

复制

    trainer.save_state()

保存当前训练器的状态。

python

复制

    if trainer.is_world_process_zero() and finetuning_args.plot_loss:
        plot_loss(training_args.output_dir, keys=["loss", "eval_loss", "eval_accuracy"])

如果当前进程是主进程(通常在分布式训练中使用)并且微调参数中指定了绘制损失图,则绘制损失和评估指标的图表。

评估部分

python

复制

# Evaluation
if training_args.do_eval:

如果训练参数中的 do_eval 为真,则执行评估部分。

python

复制

    metrics = trainer.evaluate(metric_key_prefix="eval")

使用 trainer 对象进行模型评估,并指定度量指标的前缀为 "eval"。

python

复制

    trainer.log_metrics("eval", metrics)

记录评估过程中的度量指标。

python

复制

    trainer.save_metrics("eval", metrics)

保存评估过程中的度量指标。

预测部分

python

复制

# Predict
if training_args.do_predict:

如果训练参数中的 do_predict 为真,则执行预测部分。

python

复制

    predict_results = trainer.predict(dataset, metric_key_prefix="predict")

使用 trainer 对象进行预测,并指定度量指标的前缀为 "predict"。

python

复制

    trainer.log_metrics("predict", predict_results.metrics)

记录预测过程中的度量指标。

python

复制

    trainer.save_metrics("predict", predict_results.metrics)

保存预测过程中的度量指标。

python

复制

    trainer.save_predictions(predict_results)

保存预测结果。

创建模型卡片

python

复制

# Create model card
create_modelcard_and_push(trainer, model_args, data_args, training_args, finetuning_args)

根据提供的参数创建模型卡片,并可能将其推送到模型仓库。这通常用于记录模型的配置、性能和其他元数据,方便用户理解和使用模型。

这段代码涵盖了机器学习模型的完整生命周期,从训练到评估、预测,最终到文档生成,用于确保模型的透明性和可复现性。

Read more

60个“特征工程”计算函数(Python代码)

60个“特征工程”计算函数(Python代码)

转自:coggle数据科学 近期一些朋友询问我关于如何做特征工程的问题,有没有什么适合初学者的有效操作。 特征工程的问题往往需要具体问题具体分析,当然也有一些暴力的策略,可以在竞赛初赛前期可以带来较大提升,而很多竞赛往往依赖这些信息就可以拿到非常好的效果,剩余的则需要结合业务逻辑以及很多其他的技巧,此处我们将平时用得最多的聚合操作罗列在下方。 最近刚好看到一篇文章汇总了非常多的聚合函数,就摘录在下方,供许多初入竞赛的朋友参考。 聚合特征汇总 pandas自带的聚合函数 * 其它重要聚合函数 其它重要聚合函数&分类分别如下。 def median(x):     return np.median(x) def variation_coefficient(x):     mean = np.mean(x)     if mean != 0:         return np.std(x) / mean     else:         return np.nan def variance(x):     return

By Ne0inhk
90w,确实可以封神了!

90w,确实可以封神了!

要说24年一定最热的技术,还得是AIGC! 前段时间阿里旗下的开源项目,登上GitHub热榜! AI大热,如今ChatGPT的优异表现,必然会出现各种细分场景应用的工具软件,和大量岗位项目! 山雨欲来风满楼,强人工智能的出现,所有科技公司已经开始巨量扩招此领域的人才。算法的岗位,近三个月已经增长68%!这件事在HR届也是相当震撼的。 目前各行各业都不景气的市场,人工智能岗位却一直保持常青!甚至同属AI边缘岗都比其他岗薪资高40%! 与此同时,AI算法岗上岸也不简单,竞争激烈,好公司核心岗位不用说,谁都想去。 所以事实就是,想要上岸,门槛也逐渐变高,项目经历、实习经历都很重要,越早明白这个道理就越能提前建立起自己的优势。 但我在b站逛知识区的时候,经常看到有些同学,因为一些客观原因导致无法参加实习,这种情况下,如果你想提升背景,增加项目经历的话,可以试试这个《CV/NLP 算法工程师培养计划》。 目前已经有上千位同学通过该计划拿到offer了,最新一期学员就业薪资最高能拿到78K!年薪94w! 优势就是有BAT大厂讲师带领,手把手带做AI真实企业项目(包含CV、NLP等

By Ne0inhk
再见nohup!试试这个神器,Python Supervisor!

再见nohup!试试这个神器,Python Supervisor!

👇我的小册 45章教程:() ,原价299,限时特价2杯咖啡,满100人涨10元。 作者丨Ais137 https://juejin.cn/post/7354406980784373798 1. 概述 Supervisor 是一个 C/S 架构的进程监控与管理工具,本文主要介绍其基本用法和部分高级特性,用于解决部署持久化进程的稳定性问题。 2. 问题场景 在实际的工作中,往往会有部署持久化进程的需求,比如接口服务进程,又或者是消费者进程等。这类进程通常是作为后台进程持久化运行的。 一般的部署方法是通过 nohup cmd & 命令来部署。但是这种方式有个弊端是在某些情况下无法保证目标进程的稳定性运行,有的时候 nohup 运行的后台任务会因为未知原因中断,从而导致服务或者消费中断,进而影响项目的正常运行。 为了解决上述问题,通过引入 Supervisor 来部署持久化进程,提高系统运行的稳定性。 3. Supervisor 简介 Supervisor is a client/

By Ne0inhk
第一本给程序员看的AI Agent图书上市了!

第一本给程序员看的AI Agent图书上市了!

AI Agent火爆到什么程度? OpenAI创始人奥特曼预测,未来各行各业,每一个人都可以拥有一个AI Agent;比尔·盖茨在2023年层预言:AI Agent将彻底改变人机交互方式,并颠覆整个软件行业;吴恩达教授在AI Ascent 2024演讲中高赞:AI Agent是一个令人兴奋的趋势,所有从事AI开发的人都应该关注。而国内的各科技巨头也纷纷布局AI Agent平台,如:钉钉的AI PaaS、百度智能云千帆大模型平台等等。 Agent 是未来最重要的智能化工具。对于程序员来说,是时候将目光转向大模型的应用开发了,率先抢占AI的下一个风口AI Agent。 小异带来一本新书《大模型应用开发 动手做 AI Agent》,这本书由《GPT图解》的作者黄佳老师创作,从0到1手把手教你做AI Agent。现在下单享受5折特惠! ▼点击下方,即可5折起购书 有这样一本秘籍在手,程序员们这下放心了吧,让我们先来揭开 Agent 的神秘面纱。 AI Agent 面面观

By Ne0inhk