常用的模型融合有Stacking和Blending,例如:GBDT+LR就是Stacking。

    Stacking的基本原理是:用训练好的所有基模型对训练集进行预测,将第j个基模型对第i个训练样本的预测值作为新的训练集中第i个样本的第j个特征值,最后基于新的训练集进行训练。同理,预测的过程也要先经过所有的基模型的预测形成新的测试集,最后对测试集进行预测。

    Blending的基本原理是:把原始的训练集先分成两部分,如70%的数据作为新的训练集,剩下30%的数据作为测试集。在第一层中,我们用70%的数据训练多个模型,然后去预测剩余30%数据的label。在第二层中,直接用30%的数据在第一层预测的结果作为新特征继续训练即可。

    Bleding的优缺点:

    1. 使用了很少的数据
    2. 可能产生过拟合