随机森林算法原理与 Python 实战代码
本文介绍随机森林算法原理,涵盖集成学习思想、双重随机性机制及核心参数配置。基于 Scikit-learn 展示模型构建、训练、评估流程,并通过市民购车行为预测案例演示数据预处理、特征编码及结果分析。内容涉及分类回归任务应用、过拟合处理及特征重要性解读,适合机器学习入门及业务建模参考。

本文介绍随机森林算法原理,涵盖集成学习思想、双重随机性机制及核心参数配置。基于 Scikit-learn 展示模型构建、训练、评估流程,并通过市民购车行为预测案例演示数据预处理、特征编码及结果分析。内容涉及分类回归任务应用、过拟合处理及特征重要性解读,适合机器学习入门及业务建模参考。

随机森林(Random Forest)是一种基于集成学习思想的分类算法,它通过'随机采样数据 + 随机选择特征'的方式构建多棵决策树,最终通过投票法(分类任务)或平均法(回归任务)整合所有决策树的预测结果,输出最终结论。
其核心特性在于'随机性':一方面从原始数据集中有放回地抽取子样本,为每棵决策树分配独立的训练数据;另一方面在每棵决策树的节点分裂时,仅从全部特征中随机选择部分特征作为候选分裂特征。这种双重随机性有效降低了单棵决策树的过拟合风险,同时提升了模型的稳定性和泛化能力。
随机森林主要用于解决分类问题(二分类 / 多分类),同时也可扩展至回归任务,核心价值是处理复杂数据的模式识别与预测,适用场景包括:
与单一决策树相比,随机森林通过集成多棵树的结果,避免了单棵树易过拟合、稳定性差的缺点;与支持向量机、逻辑回归等算法相比,无需复杂的特征归一化和参数调优,实用性更强。
Scikit-learn 中随机森林分类的核心函数为 RandomForestClassifier,关键参数及含义如下:
| 参数 | 类型 | 作用 | 默认值 | 备注 |
|---|---|---|---|---|
| n_estimators | int | 决策树的数量 | 100 | 数量过少易欠拟合,过多会增加计算成本,通常取 50-200 |
| criterion | str | 节点分裂准则 | "gini" | 可选 "gini"(基尼系数)或 "entropy"(信息增益),前者计算效率更高 |
| max_depth | int/None | 每棵树的最大深度 | None | 默认为不限制深度,可设置具体数值(如 5、10)防止过拟合 |
| min_samples_split | int/float | 节点分裂所需最小样本数 | 2 | 数值越大,树越简单,泛化能力越强 |
| min_samples_leaf | int/float | 叶子节点最小样本数 | 1 | 防止生成过于细碎的叶子节点,避免过拟合 |
| max_features | str/int/float | 分裂时候选特征的数量 | "sqrt" | 可选 "sqrt"(根号下总特征数)、"log2" 或具体数值,控制特征随机性 |
| random_state | int/None | 随机种子 | None | 设定固定值(如 123)可使结果可重现 |
| class_weight | dict/str/None | 类别权重 | None | 应对数据不平衡,可选 "balanced" 自动调整权重 |
# 导入库
from sklearn.ensemble import RandomForestClassifier
from sklearn.model_selection import train_test_split
from sklearn.metrics import classification_report, accuracy_score
# 构建模型
model = RandomForestClassifier(
n_estimators=10, # 10 棵决策树
criterion='gini', # 基尼系数分裂
max_depth=None, # 不限制树深度
random_state=123 # 固定随机种子
)
# 训练模型(X 为特征矩阵,y 为标签)
model.fit(X_train, y_train)
随机森林的评估指标与分类任务一致,核心指标包括准确率(Accuracy)、精准率(Precision)、召回率(Recall)、F1-score 等,使用 Scikit-learn 的内置函数即可实现:
# 预测测试集
y_pred = model.predict(X_test)
# 计算准确率
accuracy = accuracy_score(y_test, y_pred)
print(f"模型准确率:{accuracy:.3f}")
# 输出详细分类报告
print(classification_report(y_test, y_pred))
# 查看特征重要性
import pandas as pd
feature_importance = pd.DataFrame({
'特征': feature_names,
'重要性': model.feature_importances_
}).sort_values('重要性', ascending=False)
print("特征重要性排名:")
print(feature_importance)
OrdinalEncoder、OneHotEncoder);n_estimators和max_depth是影响模型性能的关键参数,需通过交叉验证(如GridSearchCV)优化;max_depth、增加min_samples_split或减少n_estimators;class_weight="balanced"或采样方法调整。模拟某市市民属性数据,包含 5 个特征和 1 个目标变量(是否购车),共 100 条样本:
import pandas as pd
import numpy as np
# 设置随机种子
np.random.seed(123)
# 构建数据集
data = {
'age': np.random.choice(['30-', '31-40', '41-50', '51+'], size=100), # 年龄区间
'gender': np.random.choice(['male', 'female'], size=100), # 性别
'annual_income': np.random.choice(['10-20w', '21-40w', '41w+'], size=100), # 年收入
'marital_status': np.random.choice(['是', '否'], size=100), # 婚姻状态(是否已婚)
'has_child': np.random.choice([0, 1], size=100), # 是否有小孩(0=无,1=有)
'buy_car_sign': np.random.choice([0, 1], size=100, p=[0.6, 0.4]) # 是否购车(0=否,1=是)
}
df = pd.DataFrame(data)
print("数据集前 5 行:")
print(df.head())
print("\n数据集基本信息:")
print(df['buy_car_sign'].value_counts()) # 查看类别分布
对字符串类型特征进行编码,将分类特征转换为数值型:
from sklearn.preprocessing import OrdinalEncoder
from sklearn.model_selection import train_test_split
# 分离特征(X)和目标变量(y)
X = df[['age', 'gender', 'annual_income', 'marital_status', 'has_child']]
y = df['buy_car_sign']
# 对分类特征编码
encoder = OrdinalEncoder()
X_encoded = encoder.fit_transform(X)
# 划分训练集和测试集(8:2)
X_train, X_test, y_train, y_test = train_test_split(
X_encoded, y, train_size=0.8, random_state=123
)
print("训练集形状:", X_train.shape)
print("测试集形状:", X_test.shape)
from sklearn.ensemble import RandomForestClassifier
# 构建随机森林模型
rf_model = RandomForestClassifier(
n_estimators=50, # 50 棵决策树
criterion='gini',
max_depth=5, # 限制树深度,防止过拟合
random_state=123
)
# 训练模型
rf_model.fit(X_train, y_train)
from sklearn.metrics import accuracy_score, classification_report
import pandas as pd
# 预测与评估
y_pred = rf_model.predict(X_test)
accuracy = accuracy_score(y_test, y_pred)
print(f"模型测试集准确率:{accuracy:.3f}")
# 输出分类报告
print("\n分类报告:")
print(classification_report(y_test, y_pred))
# 特征重要性分析
feature_names = ['年龄', '性别', '年收入', '婚姻状态', '是否有小孩']
importance_df = pd.DataFrame({
'特征': feature_names,
'重要性': rf_model.feature_importances_
}).sort_values('重要性', ascending=False)
print("\n特征重要性排名:")
print(importance_df)
# 构建新样本(年龄:31-40,性别:male,年收入:21-40w,婚姻状态:是,是否有小孩:1)
new_sample = encoder.transform([['31-40', 'male', '21-40w', '是', 1]])
# 预测是否购车
pred_result = rf_model.predict(new_sample)[0]
pred_prob = rf_model.predict_proba(new_sample).max()
print(f"\n新样本预测结果:{'购车' if pred_result == 1 else '不购车'}")
print(f"预测概率:{pred_prob:.3f}")
随机森林是一种'简单实用、效果稳定'的集成学习算法,通过双重随机性解决了单一决策树的过拟合问题,同时保留了决策树易理解、无需复杂预处理的优点。在实际应用中,只需注意数据编码、参数调优和类别平衡,就能快速构建高性能的预测模型。
无论是新手入门机器学习,还是业务场景中的快速建模,随机森林都是优先选择的算法之一。后续可进一步尝试调整 n_estimators、max_depth 等参数,或结合网格搜索进行超参数优化,进一步提升模型性能。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online