交叉验证
    是用来观察模型的稳定性的一种方法(评估模型的优劣性),我们将数据划分为n份,依次使用其中一份作为测试集,其他n-1份 作为训练集,多次计算模型的精确性来评估模型的平均准确程度。训练集和测试集的划分会干扰模型的结果,因此 用交叉验证n次的结果求出的平均值,是对模型效果的一个更好的度量。

    image.png

    使用效果:我们在画学习曲线的时候可以使用交叉验证协助我们调参找出最佳模型。

    使用方式:

    1. from sklearn.model_selection import cross_val_score #导库
    2. cross_val_score(regressor, boston.data, boston.target, cv=10,
    3. scoring = "neg_mean_squared_error")
    4. #以波士顿数据集在回归树上的应用为例
    5. #scoring: 交叉验证最重要的就是他的验证方式,选择不同的评价方法,会产生不同的评价结果。
    6. #cv为交叉验证的次数

    scoring的指标:
    最优参数搜索 - 图2

    学习曲线
    在进行调参的时候,有些参数过于复杂或者我们没有办法手动计算出的时候,利用学习曲线寻找最佳参数是一个很不错的手段哦~最简单的学习曲线代码如下,一般先进行广泛搜索,再进一步细化学习曲线。

    1. score = []
    2. for i in range():
    3. once = cross_val_score(RFC_,x,y,cv=5).mean()
    4. score.append(once)
    5. plt.figure(figsize=[20,5])
    6. plt.plot(range(),score)
    7. plt.xticks(range())
    8. plt.show()

    训练集和测试集分数比较,观察模型的拟合情况

    1. def plot_learning_curve(estimator,title, X, y,
    2. ax=None, #选择子图
    3. ylim=None, #设置纵坐标的取值范围
    4. cv=None, #交叉验证
    5. n_jobs=None #设定索要使用的线程
    6. ):
    7. from sklearn.model_selection import learning_curve
    8. import matplotlib.pyplot as plt
    9. import numpy as np
    10. train_sizes, train_scores, test_scores = learning_curve(estimator, X, y
    11. ,shuffle=True
    12. ,cv=cv
    13. ,random_state=420
    14. ,n_jobs=n_jobs)
    15. if ax == None:
    16. ax = plt.gca()
    17. else:
    18. ax = plt.figure()
    19. ax.set_title(title)
    20. if ylim is not None:
    21. ax.set_ylim(*ylim)
    22. ax.set_xlabel("Training examples")
    23. ax.set_ylabel("Score")
    24. ax.grid() #绘制网格
    25. ax.plot(train_sizes, np.mean(train_scores, axis=1), 'o-'
    26. , color="r",label="Training score")
    27. ax.plot(train_sizes, np.mean(test_scores, axis=1), 'o-'
    28. , color="g",label="Test score")
    29. ax.legend(loc="best")
    30. return ax
    31. from sklearn.model_selection import KFold, cross_val_score as CVS, train_test_split as TTS
    32. cv = KFold(n_splits=5, shuffle = True, random_state=42) #k折交叉验证模式
    33. plot_learning_curve(XGBR(n_estimators=100,random_state=420)
    34. ,"XGB",Xtrain,Ytrain,ax=None,cv=cv)
    35. plt.show()

    网格搜索
    网格搜索法是指定参数值的一种穷举搜索方法,通过将估计函数的参数通过交叉验证的方法进行优化来得到最优的学习算法。网格搜索的时间复杂度随着参数的增多呈指数级别增加!
    网格搜索的代码其实没有太大的意义,我们完全可以自己使用for循环自行进行网格搜索。
    **