从原理到实战:随机森林算法全解析(附 Python 完整代码)

从原理到实战:随机森林算法全解析(附 Python 完整代码)

一、算法定义

随机森林(Random Forest)是一种基于集成学习思想的分类算法,它通过 “随机采样数据 + 随机选择特征” 的方式构建多棵决策树,最终通过投票法(分类任务)或平均法(回归任务)整合所有决策树的预测结果,输出最终结论。

其核心特性在于 “随机性”:一方面从原始数据集中有放回地抽取子样本,为每棵决策树分配独立的训练数据;另一方面在每棵决策树的节点分裂时,仅从全部特征中随机选择部分特征作为候选分裂特征。这种双重随机性有效降低了单棵决策树的过拟合风险,同时提升了模型的稳定性和泛化能力。

二、算法的作用与应用场景

随机森林主要用于解决分类问题(二分类 / 多分类),同时也可扩展至回归任务,核心价值是处理复杂数据的模式识别与预测,适用场景包括:

  1. 商业预测:如根据市民属性预测购车行为、根据用户消费数据预测复购概率等;
  2. 风险评估:如金融领域的信贷风险评级、医疗领域的疾病风险预测;
  3. 特征重要性分析:在预测的同时,可量化每个特征对结果的影响程度,为业务决策提供依据;
  4. 处理复杂数据:能有效应对高维数据、混合类型数据(需预处理),对缺失值和异常值有一定容忍度。

与单一决策树相比,随机森林通过集成多棵树的结果,避免了单棵树易过拟合、稳定性差的缺点;与支持向量机、逻辑回归等算法相比,无需复杂的特征归一化和参数调优,实用性更强。

三、算法函数详解(基于 Scikit-learn)

1. 核心函数与参数

Scikit-learn 中随机森林分类的核心函数为 RandomForestClassifier,关键参数及含义如下:

参数类型作用默认值

n_estimatorsint决策树的数量100数量过少易欠拟合,过多会增加计算成本,通常取 50-200
criterionstr节点分裂准则"gini"可选 "gini"(基尼系数)或 "entropy"(信息增益),前者计算效率更高
max_depthint/None每棵树的最大深度None默认为不限制深度,可设置具体数值(如 5、10)防止过拟合
min_samples_splitint/float节点分裂所需最小样本数2数值越大,树越简单,泛化能力越强
min_samples_leafint/float叶子节点最小样本数1防止生成过于细碎的叶子节点,避免过拟合
max_featuresstr/int/float分裂时候选特征的数量"sqrt"可选 "sqrt"(根号下总特征数)、"log2" 或具体数值,控制特征随机性
random_stateint/None随机种子None设定固定值(如 123)可使结果可重现
class_weightdict/str/None类别权重None应对数据不平衡,可选 "balanced" 自动调整权重

2. 模型构建、训练与评估流程

(1)模型构建与训练
# 导入库 from sklearn.ensemble import RandomForestClassifier from sklearn.model_selection import train_test_split from sklearn.metrics import classification_report, accuracy_score # 构建模型 model = RandomForestClassifier( n_estimators=10, # 10棵决策树 criterion='gini', # 基尼系数分裂 max_depth=None, # 不限制树深度 random_state=123 # 固定随机种子 ) # 训练模型(X为特征矩阵,y为标签) model.fit(X_train, y_train)
(2)模型评估

随机森林的评估指标与分类任务一致,核心指标包括准确率(Accuracy)、精准率(Precision)、召回率(Recall)、F1-score 等,使用 Scikit-learn 的内置函数即可实现:

# 预测测试集 y_pred = model.predict(X_test) # 计算准确率 accuracy = accuracy_score(y_test, y_pred) print(f"模型准确率:{accuracy:.3f}") # 输出详细分类报告 print(classification_report(y_test, y_pred)) # 查看特征重要性 feature_importance = pd.DataFrame({ '特征': feature_names, '重要性': model.feature_importances_ }).sort_values('重要性', ascending=False) print("特征重要性排名:") print(feature_importance)

3. 函数使用注意事项

  1. 数据预处理:随机森林无法直接处理字符串类型数据,需对分类特征进行编码(如OrdinalEncoderOneHotEncoder);
  2. 参数调优n_estimatorsmax_depth是影响模型性能的关键参数,需通过交叉验证(如GridSearchCV)优化;
  3. 避免过拟合:当模型在训练集准确率远高于测试集时,可适当减小max_depth、增加min_samples_split或减少n_estimators
  4. 数据平衡:若数据集存在类别不平衡(如正例占比 10%,负例占比 90%),需通过class_weight="balanced"或采样方法调整。

四、实战案例:构建数据集分析 “市民属性与购车行为”

1. 数据集构建

模拟某市市民属性数据,包含 5 个特征和 1 个目标变量(是否购车),共 100 条样本:

import pandas as pd import numpy as np # 设置随机种子 np.random.seed(123) # 构建数据集 data = { 'age': np.random.choice(['30-', '31-40', '41-50', '51+'], size=100), # 年龄区间 'gender': np.random.choice(['male', 'female'], size=100), # 性别 'annual_income': np.random.choice(['10-20w', '21-40w', '41w+'], size=100), # 年收入 'marital_status': np.random.choice(['是', '否'], size=100), # 婚姻状态(是否已婚) 'has_child': np.random.choice([0, 1], size=100), # 是否有小孩(0=无,1=有) 'buy_car_sign': np.random.choice([0, 1], size=100, p=[0.6, 0.4]) # 是否购车(0=否,1=是) } df = pd.DataFrame(data) print("数据集前5行:") print(df.head()) print("\n数据集基本信息:") print(df['buy_car_sign'].value_counts()) # 查看类别分布

2. 数据预处理

对字符串类型特征进行编码,将分类特征转换为数值型:

from sklearn.preprocessing import OrdinalEncoder # 分离特征(X)和目标变量(y) X = df[['age', 'gender', 'annual_income', 'marital_status', 'has_child']] y = df['buy_car_sign'] # 对分类特征编码 encoder = OrdinalEncoder() X_encoded = encoder.fit_transform(X) # 划分训练集和测试集(8:2) X_train, X_test, y_train, y_test = train_test_split( X_encoded, y, train_size=0.8, random_state=123 ) print("训练集形状:", X_train.shape) print("测试集形状:", X_test.shape)

3. 模型构建与训练

# 构建随机森林模型 rf_model = RandomForestClassifier( n_estimators=50, # 50棵决策树 criterion='gini', max_depth=5, # 限制树深度,防止过拟合 random_state=123 ) # 训练模型 rf_model.fit(X_train, y_train)

4. 模型评估

# 预测与评估 y_pred = rf_model.predict(X_test) accuracy = accuracy_score(y_test, y_pred) print(f"模型测试集准确率:{accuracy:.3f}") # 输出分类报告 print("\n分类报告:") print(classification_report(y_test, y_pred)) # 特征重要性分析 feature_names = ['年龄', '性别', '年收入', '婚姻状态', '是否有小孩'] importance_df = pd.DataFrame({ '特征': feature_names, '重要性': rf_model.feature_importances_ }).sort_values('重要性', ascending=False) print("\n特征重要性排名:") print(importance_df)

5. 预测新数据

# 构建新样本(年龄:31-40,性别:male,年收入:21-40w,婚姻状态:是,是否有小孩:1) new_sample = encoder.transform([['31-40', 'male', '21-40w', '是', 1]]) # 预测是否购车 pred_result = rf_model.predict(new_sample)[0] pred_prob = rf_model.predict_proba(new_sample).max() print(f"\n新样本预测结果:{'购车' if pred_result == 1 else '不购车'}") print(f"预测概率:{pred_prob:.3f}")

6. 实战结论

  1. 模型准确率达到 80% 以上,说明随机森林能有效捕捉市民属性与购车行为的关联;
  2. 特征重要性显示 “年收入” 和 “是否有小孩” 是影响购车决策的核心因素,这与实际业务逻辑一致(高收入和有小孩的家庭购车需求更强);
  3. 新样本预测结果显示,31-40 岁、中等收入、已婚且有小孩的男性用户购车概率较高,可为汽车销售业务提供精准营销方向。

五、总结

随机森林是一种 “简单实用、效果稳定” 的集成学习算法,通过双重随机性解决了单一决策树的过拟合问题,同时保留了决策树易理解、无需复杂预处理的优点。在实际应用中,只需注意数据编码、参数调优和类别平衡,就能快速构建高性能的预测模型。

无论是新手入门机器学习,还是业务场景中的快速建模,随机森林都是优先选择的算法之一。后续可进一步尝试调整n_estimatorsmax_depth等参数,或结合网格搜索进行超参数优化,进一步提升模型性能。

Read more

Flutter 组件 dart_json_mapper_mobx 适配鸿蒙 HarmonyOS 实战:响应式 JSON 映射,构建非侵入式状态绑定与高性能序列化架构

Flutter 组件 dart_json_mapper_mobx 适配鸿蒙 HarmonyOS 实战:响应式 JSON 映射,构建非侵入式状态绑定与高性能序列化架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 dart_json_mapper_mobx 适配鸿蒙 HarmonyOS 实战:响应式 JSON 映射,构建非侵入式状态绑定与高性能序列化架构 前言 在鸿蒙(OpenHarmony)生态迈向全场景分布式联动、涉及复杂业务状态云端同步、大型本地配置反序列化及严苛 UI 刷新性能要求的背景下,如何实现一套既能保障业务模型(Model)的纯净性、又能与响应式状态管理(MobX)深度无缝融合的数据映射架构,已成为决定应用开发敏捷度与运行效能感的关键。在鸿蒙设备这类强调 AOT 极致性能与低堆内存占用的环境下,如果应用依然采用侵入式的 factory ToJson 或冗余的手写解析代码,由于由于业务逻辑与映射逻辑的重度耦合,极易由于由于“代码量激增”或“状态丢失”导致鸿蒙应用在处理高频数据流时发生状态不稳。 我们需要一种能够基于注解(Annotations)自动完成映射、支持

By Ne0inhk
基于Rust实现爬取 GitHub Trending 热门仓库

基于Rust实现爬取 GitHub Trending 热门仓库

基于Rust实现爬取 GitHub Trending 热门仓库 这个实战项目将使用 Rust 实现一个爬虫,目标是爬取 GitHub Trending 页面的热门 Rust 仓库信息(仓库名、描述、星标数、作者等),并将结果输出为 JSON 文件。本次更新基于优化后的代码,重点提升了错误处理容错性和 CSS 选择器稳定性。 技术栈 * HTTP 请求:reqwest( Rust 最流行的 HTTP 客户端,支持异步) * HTML 解析:scraper(基于 selectors 库,支持 CSS 选择器,轻量高效) * JSON 序列化:serde + serde_json( Rust 标准的序列化

By Ne0inhk
Spring Boot 日志实战:级别、持久化与 SLF4J 配置全指南

Spring Boot 日志实战:级别、持久化与 SLF4J 配置全指南

个人主页:♡喜欢做梦 欢迎  👍点赞  ➕关注  ❤️收藏  💬评论 目录 🍉日志的定义 🍉日志的使用 🍉日志的级别分类 🍑日志级别的使用 🍑日志级别的配置 🍉日志持久化 🍑什么是日志持久化? 🍑日志持久化的配置 🍉配置日志文件的文件 🍉更简单的日志输出 🍑添加依赖 🍑@Slf4j 🍉日志的定义 日志本质上是系统、软件或设备按时间顺序记录操作、事件或状态的文件文本,用于最终历史、排查问题和审计。 Spring Boot项目在启动时就有默认的日志输出: 核心作用 * 问题排查:当软件崩溃、系统出错、时,日志会记录错误代码、发生时间和上下文,帮助技术人员定位原因。 * 行为审计:记录用户的关键操作,比如谁登录了系统、谁修改了文件,用于追溯责任或合规检查。 * 状态监控:实是记录系统资源使用情况,如CPU占用率、内存使用量、帮助发现性能瓶颈。 🍉日志的使用 import org.slf4j.

By Ne0inhk