1 概述

1.1 集成算法概述

集成学习(ensemble learning)是时下非常流行的机器学习算法,它本身不是一个单独的机器学习算法,而是通 过在数据上构建多个模型,集成所有模型的建模结果。基本上所有的机器学习领域都可以看到集成学习的身影,在 现实中集成学习也有相当大的作用,它可以用来做市场营销模拟的建模,统计客户来源,保留和流失,也可用来预 测疾病的风险和病患者的易感性。在现在的各种算法竞赛中,随机森林,梯度提升树(GBDT),Xgboost等集成 算法的身影也随处可见,可见其效果之好,应用之广。

集成算法的目标:集成算法会考虑多个评估器的建模结果,汇总之后得到一个综合的结果,以此来获取比单个模型更好的回归或分类表现。

多个模型集成成为的模型叫做集成评估器(ensemble estimator),组成集成评估器的每个模型都叫做基评估器 (base estimator)。通常来说,有三类集成算法:装袋法(Bagging),提升法(Boosting)和stacking。

rf1.png

装袋法的核心思想是构建多个相互独立的评估器,然后对其预测进行平均或多数表决原则来决定集成评估器的结 果。装袋法的代表模型就是随机森林。

提升法中,基评估器是相关的,是按顺序一一构建的。其核心思想是结合弱评估器的力量一次次对难以评估的样本 进行预测,从而构成一个强评估器。提升法的代表模型有Adaboost和梯度提升树。

1.2 sklearn中的集成算法

sklearn中的集成算法模块ensemble

ensemble.AdaBoostClassifier AdaBoost分类
ensemble.AdaBoostRegressor Adaboost回归
ensemble.BaggingClassifier 装袋分类器
ensemble.BaggingRegressor 装袋回归器
ensemble.ExtraTreesClassifier Extra-trees分类(超树,极端随机树)
ensemble.ExtraTreesRegressor Extra-trees回归
ensemble.GradientBoostingClassifier 梯度提升分类
ensemble.GradientBoostingRegressor 梯度提升回归
ensemble.IsolationForest 隔离森林
ensemble.RandomForestClassifier 随机森林分类
ensemble.RandomForestRegressor 随机森林回归
ensemble.RandomTreesEmbedding 完全随机树的集成
ensemble.VotingClassifier 用于不合适估算器的软投票/多数规则分类器

集成算法中,有一半以上都是树的集成模型,可以想见决策树在集成中必定是有很好的效果。在这堂课中,我们会 以随机森林为例,慢慢为大家揭开集成算法的神秘面纱。

复习决策树

请参考上一章

sklearn的基本建模流程

我们先来了解一下sklearn建模的基本流程。

rf2.png

在这个流程下,随机森林对应的代码和决策树基本一致:

  1. from sklearn.tree import RandomForestClassifier #导入需要的模块
  2. rfc = RandomForestClassifier() #导入需要的模块
  3. rfc = rfc.fit(X_train,y_train) #用训练集数据训练模型
  4. result = rfc.score(X_test,y_test) #导入测试集,从接口中调用需要的信息

2 RandomForestClassifier

class sklearn.ensemble.RandomForestClassifier (n_estimators=’10’, criterion=’gini’, max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=’auto’, max_leaf_nodes=None, min_impurity_decrease=0.0, min_impurity_split=None, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False, class_weight=None)

随机森林是非常具有代表性的Bagging集成算法,它的所有基评估器都是决策树,分类树组成的森林就叫做随机森 林分类器,回归树所集成的森林就叫做随机森林回归器。这一节主要讲解RandomForestClassifier,随机森林分类 器。

2.1 重要参数

2.1.1 控制基评估器的参数

参数 含义
criterion 不纯度的衡量指标,有基尼系数和信息熵两种选择
max_depth 树的最大深度,超过最大深度的树枝都会被剪掉
min_samples_leaf 一个节点在分枝后的每个子节点都必须包含至少min_samples_leaf个训练样 本,否则分枝就不会发生
min_samples_split 一个节点必须要包含至少min_samples_split个训练样本,这个节点才允许被分 枝,否则分枝就不会发生
max_features max_features限制分枝时考虑的特征个数,超过限制个数的特征都会被舍弃, 默认值为总特征个数开平方取整
min_impurity_decrease 限制信息增益的大小,信息增益小于设定数值的分枝不会发生

这些参数在随机森林中的含义,和我们在上决策 树时说明的内容一模一样,单个决策树的准确率越高,随机森林的准确率也会越高,因为装袋法是依赖于平均值或 者少数服从多数原则来决定集成的结果的。

2.1.2 n_estimators

这是森林中树木的数量,即基基评估器的数量。这个参数对随机森林模型的精确性影响是单调的,n_estimators 越大,模型的效果往往越好。但是相应的,任何模型都有决策边界,n_estimators达到一定的程度之后,随机森林 的精确性往往不在上升或开始波动,并且,n_estimators越大,需要的计算量和内存也越大,训练的时间也会越来 越长。对于这个参数,我们是渴望在训练难度和模型效果之间取得平衡。

n_estimators的默认值在现有版本的sklearn中是10,但是在即将更新的0.22版本中,这个默认值会被修正为 100。这个修正显示出了使用者的调参倾向:要更大的n_estimators。

2.1.3 来建立随机森林

树模型的优点是简单易懂,可视化之后的树人人都能够看懂,可惜随机森林是无法被可视化的。所以为了更加直观 地让大家体会随机森林的效果,我们来进行一个随机森林和单个决策树效益的对比。我们依然使用红酒数据集。

  1. 导入我们需要的包
  1. %matplotlib inline
  2. from sklearn.tree import DecisionTreeClassifier
  3. from sklearn.ensemble import RandomForestClassifier
  4. from sklearn.datasets import load_wine
  1. 导入需要的数据集
  1. wine = load_wine()
  2. wine.data
  3. wine.target
  1. 复习:sklearn建模的基本流程
  1. from sklearn.model_selection import train_test_split
  2. Xtrain, Xtest, Ytrain, Ytest = train_test_split(wine.data,wine.target,test_size=0.3)
  3. clf = DecisionTreeClassifier(random_state=0)
  4. rfc = RandomForestClassifier(random_state=0)
  5. clf = clf.fit(Xtrain,Ytrain)
  6. rfc = rfc.fit(Xtrain,Ytrain)
  7. score_c = clf.score(Xtest,Ytest)
  8. score_r = rfc.score(Xtest,Ytest)
  9. print("Single Tree:{}".format(score_c),"Random Forest:{}".format(score_r) )
  1. 画出随机森林和决策树在十组交叉验证下的效果对比
  1. #带大家复习一下交叉验证
  2. #交叉验证:是数据集划分为n分,依次取每一份做测试集,每n-1份做训练集,多次训练模型以观测模型稳定性的方法
  3. rfc_l = []
  4. clf_l = []
  5. for i in range(10):
  6. rfc = RandomForestClassifier(n_estimators=25)
  7. rfc_s = cross_val_score(rfc,wine.data,wine.target,cv=10).mean()
  8. rfc_l.append(rfc_s)
  9. clf = DecisionTreeClassifier()
  10. clf_s = cross_val_score(clf,wine.data,wine.target,cv=10).mean()
  11. clf_l.append(clf_s)
  12. plt.plot(range(1,11),rfc_l,label = "Random Forest")
  13. plt.plot(range(1,11),clf_l,label = "Decision Tree")
  14. plt.legend()
  15. plt.show()
  16. #是否有注意到,单个决策树的波动轨迹和随机森林一致?
  17. #再次验证了我们之前提到的,单个决策树的准确率越高,随机森林的准确率也会越高
  1. n_estimators的学习曲线
    1. #####【TIME WARNING: 2mins 30 seconds】#####
    2. superpa = []
    3. for i in range(200):
    4. rfc = RandomForestClassifier(n_estimators=i+1,n_jobs=-1)
    5. rfc_s = cross_val_score(rfc,wine.data,wine.target,cv=10).mean()
    6. superpa.append(rfc_s)
    7. print(max(superpa),superpa.index(max(superpa)))
    8. plt.figure(figsize=[20,5])
    9. plt.plot(range(1,201),superpa)
    10. plt.show()

思考:随机森林用了什么方法,来保证集成的效果一定好于单个分类器?

2.2 重要属性和接口

随机森林中有三个非常重要的属性:.estimators_.oob_score_以及.feature_importances_

.estimators_是用来查看随机森林中所有树的列表的。

oob_score_指的是袋外得分。随机森林为了确保林中的每棵树都不尽相同,所以采用了对训练集进行有放回抽样的 方式来不断组成信的训练集,在这个过程中,会有一些数据从来没有被随机挑选到,他们就被叫做“袋外数据”。这 些袋外数据,没有被模型用来进行训练,sklearn可以帮助我们用他们来测试模型,测试的结果就由这个属性 oob_score_来导出,本质还是模型的精确度。

.feature_importances_和决策树中的.feature_importances_用法和含义都一致,是返回特征的重要性。

随机森林的接口与决策树完全一致,因此依然有四个常用接口:apply, fit, predict和score。除此之外,还需要注 意随机森林的predict_proba接口,这个接口返回每个测试样本对应的被分到每一类标签的概率,标签有几个分类 就返回几个概率。如果是二分类问题,则predict_proba返回的数值大于0.5的,被分为1,小于0.5的,被分为0。 传统的随机森林是利用袋装法中的规则,平均或少数服从多数来决定集成的结果,而sklearn中的随机森林是平均 每个样本对应的predict_proba返回的概率,得到一个平均概率,从而决定测试样本的分类。

  1. #大家可以分别取尝试一下这些属性和接口
  2. rfc = RandomForestClassifier(n_estimators=25)
  3. rfc = rfc.fit(Xtrain, Ytrain)
  4. rfc.score(Xtest,Ytest)
  5. rfc.feature_importances_
  6. rfc.apply(Xtest)
  7. rfc.predict(Xtest)
  8. rfc.predict_proba(Xtest)

掌握了上面的知识,基本上要实现随机森林分类已经是没问题了。从红酒数据集的表现上来看,随机森林的效用比 单纯的决策树要强上不少,大家可以自己更换其他数据来试试看(比如上周完整课案例中的泰坦尼克号数据)。

3 机器学习中调参的基本思想

在准备这一套课程的时候,我发现大多数的机器学习相关的书都是遍历各种算法和案例,为大家讲解各种各样算法 的原理和用途,但却对调参探究甚少。这中间有许多原因,其一是因为,调参的方式总是根据数据的状况而定,所 以没有办法一概而论;其二是因为,其实大家也都没有特别好的办法。

通过画学习曲线,或者网格搜索,我们能够探索到调参边缘(代价可能是训练一次模型要跑三天三夜),但是在现 实中,高手调参恐怕还是多依赖于经验,而这些经验,来源于:

  1. 非常正确的调参思路和方法;
  2. 对模型评估指 标的理解;
  3. 对数据的感觉和经验;
  4. 用洪荒之力去不断地尝试。

我们也许无法学到高手们多年累积的经验,但我们可以学习他们对模型评估指标的理解和调参的思路。

那我们首先来讲讲正确的调参思路。模型调参,第一步是要找准目标:我们要做什么?一般来说,这个目标是提升 某个模型评估指标,比如对于随机森林来说,我们想要提升的是模型在未知数据上的准确率(由score或 oobscore来衡量)。找准了这个目标,我们就需要思考:模型在未知数据上的准确率受什么因素影响?在机器学 习中,我们用来衡量模型在未知数据上的准确率的指标,叫做泛化误差(Genelization error)。

泛化误差

当模型在未知数据(测试集或者袋外数据)上表现糟糕时,我们说模型的泛化程度不够,泛化误差大,模型的效果 不好。泛化误差受到模型的结构(复杂度)影响。看下面这张图,它准确地描绘了泛化误差与模型复杂度的关系, 当模型太复杂,模型就会过拟合,泛化能力就不够,所以泛化误差大。当模型太简单,模型就会欠拟合,拟合能力 就不够,所以误差也会大。只有当模型的复杂度刚刚好的才能够达到泛化误差最小的目标。

rf3.png

那模型的复杂度与我们的参数有什么关系呢?对树模型来说,树越茂盛,深度越深,枝叶越多,模型就越复杂。所 以树模型是天生位于图的右上角的模型,随机森林是以树模型为基础,所以随机森林也是天生复杂度高的模型。随 机森林的参数,都是向着一个目标去:减少模型的复杂度,把模型往图像的左边移动,防止过拟合。当然了,调参 没有绝对,也有天生处于图像左边的随机森林,所以调参之前,我们要先判断,模型现在究竟处于图像的哪一边。

泛化误差的背后其实是“偏差-方差困境”,原理十分复杂,无论你翻开哪一本书,你都会看见长篇的数学论证和每个 字都能看懂但是连在一起就看不懂的文字解释。在下一节偏差vs方差中,我用最简单易懂的语言为大家解释了泛化 误差背后的原理,大家选读。那我们只需要记住这四点:

  1. 模型太复杂或者太简单,都会让泛化误差高,我们追求的是位于中间的平衡点;
  2. 模型太复杂就会过拟合,模型太简单就会欠拟合;
  3. 对树模型和树的集成模型来说,树的深度越深,枝叶越多,模型越复杂;
  4. 树模型和树的集成模型的目标,都是减少模型复杂度,把模型往图像的左边移动。

那具体每个参数,都如何影响我们的复杂度和模型呢?我们一直以来调参,都是在学习曲线上轮流找最优值,盼望 能够将准确率修正到一个比较高的水平。然而我们现在了解了随机森林的调参方向:降低复杂度,我们就可以将那 些对复杂度影响巨大的参数挑选出来,研究他们的单调性,然后专注调整那些能最大限度让复杂度降低的参数。对 于那些不单调的参数,或者反而会让复杂度升高的参数,我们就视情况使用,大多时候甚至可以退避。基于经验, 我对各个参数对模型的影响程度做了一个排序。在我们调参的时候,大家可以参考这个顺序。

参数 对模型在未知数据上的评估性能的影响 影响程度
n_estimators 提升至平稳,n_estimators↑,不影响单个模型的复杂度 ⭐⭐⭐⭐
max_depth 有增有减,默认最大深度,即最高复杂度,向复杂度降低的方向调参 max_depth↓,模型更简单,且向图像的左边移动 ⭐⭐⭐
min_samples_leaf 有增有减,默认最小限制1,即最高复杂度,向复杂度降低的方向调参 min_samples_leaf↑,模型更简单,且向图像的左边移动 ⭐⭐
min_samples _split 有增有减,默认最小限制2,即最高复杂度,向复杂度降低的方向调参 min_samples_split↑,模型更简单,且向图像的左边移动 ⭐⭐
max_features 有增有减,默认auto,是特征总数的开平方,位于中间复杂度,既可以 向复杂度升高的方向,也可以向复杂度降低的方向调参 max_features↓,模型更简单,图像左移
max_features↑,模型更复杂,图像右移
max_features是唯一的,既能够让模型更简单,也能够让模型更复杂的参
criterion 有增有减,一般使用gini 看具体情况

有了以上的知识储备,我们现在也能够通过参数的变化来了解,模型什么时候到达了极限,当复杂度已经不能再降 低的时候,我们就不必再调整了,因为调整大型数据的参数是一件非常费时费力的事。除了学习曲线和网格搜索, 我们现在有了基于对模型和正确的调参思路的“推测”能力,这能够让我们的调参能力更上一层楼。

偏差 vs 方差

一个集成模型(f)在未知数据集(D)上的泛化误差E(f;D),由方差(var),偏差(bais)和噪声(ε)共同决定。

随机森林 - 图4

关键概念:偏差与方差

观察下面的图像,每个点就是集成算法中的一个基评估器产生的预测值。红色虚线代表着这些预测值的均值, 而蓝色的线代表着数据本来的面貌。

偏差:模型的预测值与真实值之间的差异,即每一个红点到蓝线的距离。在集成算法中,每个基评估器都会有 自己的偏差,集成评估器的偏差是所有基评估器偏差的均值。模型越精确,偏差越低。

方差:反映的是模型每一次输出结果与模型预测值的平均水平之间的误差,即每一个红点到红色虚线的距离, 衡量模型的稳定性。模型越稳定,方差越低。

rf4.png

其中偏差衡量模型是否预测得准确,偏差越小,模型越“准”;而方差衡量模型每次预测的结果是否接近,即是说方 差越小,模型越“稳”;噪声是机器学习无法干涉的部分,为了让世界美好一点,我们就不去研究了。一个好的模 型,要对大多数未知数据都预测得“准”又“稳”。即是说,当偏差和方差都很低的时候,模型的泛化误差就小,在未 知数据上的准确率就高。

偏差大 偏差小
方差大 模型不适合这个数据
换模型
过拟合
模型很复杂
对某些数据集预测很准确
对某些数据集预测很糟糕
方差小 欠拟合
模型相对简单
预测很稳定
但对所有的数据预测都不太准确
泛化误差小,我们的目标

通常来说,方差和偏差有一个很大,泛化误差都会很大。然而,方差和偏差是此消彼长的,不可能同时达到最小 值。这个要怎么理解呢?来看看下面这张图:

rf5.png

从图上可以看出,模型复杂度大的时候,方差高,偏差低。偏差低,就是要求模型要预测得“准”。模型就会更努力 去学习更多信息,会具体于训练数据,这会导致,模型在一部分数据上表现很好,在另一部分数据上表现却很糟 糕。模型泛化性差,在不同数据上表现不稳定,所以方差就大。而要尽量学习训练集,模型的建立必然更多细节, 复杂程度必然上升。所以,复杂度高,方差高,总泛化误差高。

相对的,复杂度低的时候,方差低,偏差高。方差低,要求模型预测得“稳”,泛化性更强,那对于模型来说,它就 不需要对数据进行一个太深的学习,只需要建立一个比较简单,判定比较宽泛的模型就可以了。结果就是,模型无 法在某一类或者某一组数据上达成很高的准确度,所以偏差就会大。所以,复杂度低,偏差高,总泛化误差高

我们调参的目标是,达到方差和偏差的完美平衡!虽然方差和偏差不能同时达到最小值,但他们组成的泛化误差却 可以有一个最低点,而我们就是要寻找这个最低点。对复杂度大的模型,要降低方差,对相对简单的模型,要降低 偏差。随机森林的基评估器都拥有较低的偏差和较高的方差,因为决策树本身是预测比较”准“,比较容易过拟合的 模型,装袋法本身也要求基分类器的准确率必须要有50%以上。所以以随机森林为代表的装袋法的训练过程旨在降 低方差,即降低模型复杂度,所以随机森林参数的默认设定都是假设模型本身在泛化误差最低点的右边。

所以,我们在降低复杂度的时候,本质其实是在降低随机森林的方差,随机森林所有的参数,也都是朝着降低方差 的目标去。有了这一层理解,我们对复杂度和泛化误差的理解就更上一层楼了,对于我们调参,也有了更大的帮 助。

4 实例:随机森林在乳腺癌数据上的调参

在这节课中,我们了解了随机森林,并且学习了机器学习中调参的基本思想,了解了方差和偏差如何受到随机森林 的参数们的影响。这一节,我们就来使用我们刚才学的,基于方差和偏差的调参方法,在乳腺癌数据上进行一次随 机森林的调参。乳腺癌数据是sklearn自带的分类数据之一。

案例中,往往使用真实数据,为什么我们要使用sklearn自带的数据呢?因为真实数据在随机森林下的调参过程, 往往非常缓慢。真实数据量大,维度高,在使用随机森林之前需要一系列的处理,因此不太适合用来做直播中的案 例演示。在本章,我为大家准备了kaggle上下载的辨别手写数字的数据,有4W多条记录700多个左右的特征,随机 森林在这个辨别手写数字的数据上有非常好的表现,其调参案例也是非常经典,但是由于数据的维度太高,太过复 杂,运行一次完整的网格搜索需要四五个小时,因此不太可能拿来给大家进行演示。我们上周的案例中用的泰坦尼 克号数据,用来调参的话也是需要很长时间,因此我才选择sklearn当中自带的,结构相对清晰简单的数据来为大 家做这个案例。大家感兴趣的话,可以进群去下载数据,也可以直接到kaggle上进行下载,数据集名称是Digit Recognizer(https://www.kaggle.com/c/digit-recognizer)。

那我们接下来,就用乳腺癌数据,来看看我们的调参代码。

  1. 导入需要的库
  1. from sklearn.datasets import load_breast_cancer
  2. from sklearn.ensemble import RandomForestClassifier
  3. from sklearn.model_selection import GridSearchCV
  4. from sklearn.model_selection import cross_val_score
  5. import matplotlib.pyplot as plt
  6. import pandas as pd
  7. import numpy as np
  1. 导入数据集,探索数据
  1. data = load_breast_cancer()
  2. data
  3. data.data.shape
  4. data.target
  5. #可以看到,乳腺癌数据集有569条记录,30个特征,单看维度虽然不算太高,但是样本量非常少。
  6. #过拟合的情况可能存 在。
  1. 进行一次简单的建模,看看模型本身在数据集上的效果 ```python rfc = RandomForestClassifier(n_estimators=100,random_state=90) score_pre = cross_val_score(rfc,data.data,data.target,cv=10).mean()

score_pre

这里可以看到,随机森林在乳腺癌数据上的表现本就还不错,

在现实数据集上,基本上不可能什么都不调就看到95%以 上的准确率

  1. 4. 随机森林调整的第一步:无论如何先来调n_estimators
  2. ```python
  3. """
  4. 在这里我们选择学习曲线,可以使用网格搜索吗?可以,但是只有学习曲线,才能看见趋势
  5. 我个人的倾向是,要看见n_estimators在什么取值开始变得平稳,
  6. 是否一直推动模型整体准确率的上升等信息 第一次的学习曲线,
  7. 可以先用来帮助我们划定范围,我们取每十个数作为一个阶段,
  8. 来观察n_estimators的变化如何 引起模型整体准确率的变化
  9. """
  10. #####【TIME WARNING: 30 seconds】#####
  11. scorel = []
  12. for i in range(0,200,10):
  13. rfc = RandomForestClassifier(n_estimators=i+1, n_jobs=-1, random_state=90)
  14. score = cross_val_score(rfc,data.data,data.target,cv=10).mean()
  15. scorel.append(score)
  16. print(max(scorel),(scorel.index(max(scorel))*10)+1)
  17. plt.figure(figsize=[20,5])
  18. plt.plot(range(1,201,10),scorel)
  19. plt.show()
  20. #list.index([object])
  21. #返回这个object在列表list中的索引
  1. 在确定好的范围内,进一步细化学习曲线
  1. scorel = []
  2. for i in range(35,45):
  3. rfc = RandomForestClassifier(n_estimators=i, n_jobs=-1, random_state=90)
  4. score = cross_val_score(rfc,data.data,data.target,cv=10).mean()
  5. scorel.append(score)
  6. print(max(scorel),([*range(35,45)][scorel.index(max(scorel))]))
  7. plt.figure(figsize=[20,5])
  8. plt.plot(range(35,45),scorel)
  9. plt.show()

调整n_estimators的效果显著,模型的准确率立刻上升了0.005。接下来就进入网格搜索,我们将使用网格搜索对 参数一个个进行调整。为什么我们不同时调整多个参数呢?原因有两个:1)同时调整多个参数会运行非常缓慢, 在课堂上我们没有这么多的时间。2)同时调整多个参数,会让我们无法理解参数的组合是怎么得来的,所以即便 网格搜索调出来的结果不好,我们也不知道从哪里去改。在这里,为了使用复杂度-泛化误差方法(方差-偏差方 法),我们对参数进行一个个地调整。

  1. 为网格搜索做准备,书写网格搜索的参数
  1. """
  2. 有一些参数是没有参照的,很难说清一个范围,这种情况下我们使用学习曲线,看趋势 从曲线跑出的结果中选取一个
  3. 更小的区间,再跑曲线
  4. param_grid = {'n_estimators':np.arange(0, 200, 10)}
  5. param_grid = {'max_depth':np.arange(1, 20, 1)}
  6. param_grid = {'max_leaf_nodes':np.arange(25,50,1)}
  7. 对于大型数据集,可以尝试从1000来构建,先输入1000,每100个叶子一个区间,再逐渐缩小范围
  8. 有一些参数是可以找到一个范围的,或者说我们知道他们的取值和随着他们的取值,模型的整体准确率会如何变化,
  9. 这 样的参数我们就可以直接跑网格搜索
  10. param_grid = {'criterion':['gini', 'entropy']}
  11. param_grid = {'min_samples_split':np.arange(2, 2+20, 1)}
  12. param_grid = {'min_samples_leaf':np.arange(1, 1+10, 1)}
  13. param_grid = {'max_features':np.arange(5,30,1)}
  14. """
  1. 开始按照参数对模型整体准确率的影响程度进行调参,首先调整max_depth
  1. #调整max_depth
  2. param_grid = {'max_depth':np.arange(1, 20, 1)}
  3. # 一般根据数据的大小来进行一个试探,乳腺癌数据很小,所以可以采用1~10,或者1~20这样的试探
  4. # 但对于像digit recognition那样的大型数据来说,我们应该尝试30~50层深度(或许还不足够
  5. # 更应该画出学习曲线,来观察深度对模型的影响
  6. rfc = RandomForestClassifier(n_estimators=39 ,random_state=90 )
  7. GS = GridSearchCV(rfc,param_grid,cv=10)
  8. GS.fit(data.data,data.target)
  9. GS.best_params_
  10. GS.best_score_

在这里,我们注意到,将max_depth设置为有限之后,模型的准确率下降了。限制max_depth,是让模型变得简 单,把模型向左推,而模型整体的准确率下降了,即整体的泛化误差上升了,这说明模型现在位于图像左边,即泛 化误差最低点的左边(偏差为主导的一边)。通常来说,随机森林应该在泛化误差最低点的右边,树模型应该倾向 于过拟合,而不是拟合不足。这和数据集本身有关,但也有可能是我们调整的n_estimators对于数据集来说太大, 因此将模型拉到泛化误差最低点去了。然而,既然我们追求最低泛化误差,那我们就保留这个n_estimators,除非 有其他的因素,可以帮助我们达到更高的准确率。

当模型位于图像左边时,我们需要的是增加模型复杂度(增加方差,减少偏差)的选项,因此max_depth应该尽量 大,min_samples_leaf和min_samples_split都应该尽量小。这几乎是在说明,除了max_features,我们没有任何 参数可以调整了,因为max_depth,min_samples_leaf和min_samples_split是剪枝参数,是减小复杂度的参数。 在这里,我们可以预言,我们已经非常接近模型的上限,模型很可能没有办法再进步了。

那我们这就来调整一下max_features,看看模型如何变化。

  1. 调整max_features
  1. #调整max_features
  2. param_grid = {'max_features':np.arange(5,30,1)}
  3. """
  4. max_features是唯一一个即能够将模型往左(低方差高偏差)推,也能够将模型往右(高方差低偏差)推的参数。
  5. 我 们需要根据调参前,模型所在的位置(在泛化误差最低点的左边还是右边)来决定我们要将max_features
  6. 往哪边调。 现在模型位于图像左侧,我们需要的是更高的复杂度,因此我们应该把max_features往更大的
  7. 方向调整,可用的特征 越多,模型才会越复杂。max_features的默认最小值是sqrt(n_features),
  8. 因此我们使用这个值作为调参范围的 最小值。
  9. """
  10. rfc = RandomForestClassifier(n_estimators=39 ,random_state=90 )
  11. GS = GridSearchCV(rfc,param_grid,cv=10)
  12. GS.fit(data.data,data.target)
  13. GS.best_params_
  14. GS.best_score_

网格搜索返回了max_features的最小值,可见max_features升高之后,模型的准确率降低了。这说明,我们把模 型往右推,模型的泛化误差增加了。前面用max_depth往左推,现在用max_features往右推,泛化误差都增加, 这说明模型本身已经处于泛化误差最低点,已经达到了模型的预测上限,没有参数可以左右的部分了。剩下的那些 误差,是噪声决定的,已经没有方差和偏差的舞台了。

如果是现实案例,我们到这一步其实就可以停下了,因为复杂度和泛化误差的关系已经告诉我们,模型不能再进步 了。调参和训练模型都需要很长的时间,明知道模型不能进步了还继续调整,不是一个有效率的做法。如果我们希 望模型更进一步,我们会选择更换算法,或者更换做数据预处理的方式。但是在课上,出于练习和探索的目的,我 们继续调整我们的参数,让大家观察一下模型的变化,看看我们预测得是否正确。

依然按照参数对模型整体准确率的影响程度进行调参。

  1. 调整min_samples_leaf
  1. #调整min_samples_leaf
  2. param_grid={'min_samples_leaf':np.arange(1, 1+10, 1)}
  3. #对于min_samples_split和min_samples_leaf,一般是从他们的最小值开始向上增加10或20
  4. #面对高维度高样本量数据,如果不放心,也可以直接+50,对于大型数据,可能需要200~300的范围
  5. #如果调整的时候发现准确率无论如何都上不来,那可以放心大胆调一个很大的数据,大力限制模型的复杂度
  6. rfc = RandomForestClassifier(n_estimators=39 ,random_state=90 )
  7. GS = GridSearchCV(rfc,param_grid,cv=10)
  8. GS.fit(data.data,data.target)
  9. GS.best_params_
  10. GS.best_score_

可以看见,网格搜索返回了min_samples_leaf的最小值,并且模型整体的准确率还降低了,这和max_depth的情 况一致,参数把模型向左推,但是模型的泛化误差上升了。在这种情况下,我们显然是不要把这个参数设置起来 的,就让它默认就好了。

  1. 不懈努力,继续尝试min_samples_split
  1. #调整min_samples_split
  2. param_grid={'min_samples_split':np.arange(2, 2+20, 1)}
  3. rfc = RandomForestClassifier(n_estimators=39 ,random_state=90 )
  4. GS = GridSearchCV(rfc,param_grid,cv=10)
  5. GS.fit(data.data,data.target)
  6. GS.best_params_
  7. GS.best_score_

和min_samples_leaf一样的结果,返回最小值并且模型整体的准确率降低了。

  1. 最后尝试一下criterion
  1. #调整Criterion
  2. param_grid = {'criterion':['gini', 'entropy']}
  3. rfc = RandomForestClassifier(n_estimators=39 ,random_state=90 )
  4. GS = GridSearchCV(rfc,param_grid,cv=10)
  5. GS.fit(data.data,data.target)
  6. GS.best_params_
  7. GS.best_score_
  1. 调整完毕,总结出模型的最佳参数
  1. rfc = RandomForestClassifier(n_estimators=39,random_state=90)
  2. score = cross_val_score(rfc,data.data,data.target,cv=10).mean()
  3. score
  4. score - score_pre

在整个调参过程之中,我们首先调整了n_estimators(无论如何都请先走这一步),然后调整max_depth,通过 max_depth产生的结果,来判断模型位于复杂度-泛化误差图像的哪一边,从而选择我们应该调整的参数和调参的 方向。如果感到困惑,也可以画很多学习曲线来观察参数会如何影响我们的准确率,选取学习曲线中单调的部分来 放大研究(如同我们对n_estimators做的)。学习曲线的拐点也许就是我们一直在追求的,最佳复杂度对应的泛化 误差最低点(也是方差和偏差的平衡点)。

网格搜索也可以一起调整多个参数,大家只要有时间,可以自己跑一下,看看网格搜索会给我们怎样的结果,有时 候,它的结果比我们的好,有时候,我们手动调整的结果会比较好。当然了,我们的乳腺癌数据集非常完美,所以 只需要调n_estimators一个参数就达到了随机森林在这个数据集上表现得极限。在我们上周使用的泰坦尼克号案例 的数据中,我们使用同样的方法调出了如下的参数组合。

  1. rfc = RandomForestClassifier(n_estimators=68
  2. ,random_state=90
  3. ,criterion="gini"
  4. ,min_samples_split=8
  5. ,min_samples_leaf=1
  6. ,max_depth=12
  7. ,max_features=2
  8. ,max_leaf_nodes=36 )

基于泰坦尼克号数据调整出来的参数,数据的处理过程请参考上一期的完整视频。这个组合的准确率达到了 83.915%,比单棵决策树提升了大约7%,比调参前的随机森林提升了2.02%,这对于调参来说其实是一个非常巨大 的进步。不过,泰坦尼克号数据的运行缓慢,大家量力量时间而行,可以试试看用复杂度-泛化误差方法(方差-偏 差方法)来解读一下这个调参结果和过程。