逻辑回归为最基础的分类模型,但是逻辑回归不能进行特征交叉;因此产生了一些逻辑回归的变种,例如:Poly2、FM、FFM等;也有使用Stacking的方法,例如使用GBDT进行自动的高纬特征交叉,然后把GBDT的输出结果作为LR的输入进行训练的方法。
对于分类模型的损失函数一般为交叉熵,逻辑回归的损失函数也是交叉熵,通过极大似然估计得到的。
逻辑回归的核心思想:逻辑回归是一个二分类模型,逻辑回归可以看作是对数几率的回归,它假设预测该样本为正样本的概率服从二项分布;使用极大似然估计构造损失函数,使用梯度下降法进行训练。
逻辑回归与线性回归的异同点
如下表1,展示了逻辑回归和线性回归的不同之处。
表1 逻辑回归和线性回归的区别
序号 | 逻辑回归 | 线性回归 |
---|---|---|
1 | 处理分类问题 | 处理回归问题 |
2 | 因变量是离散的 | 因变量是连续的 |
3 | 假设因变量y服从二项分布 | 假设因变量y服从正态分布 |
4 | 最大似然估计求解 | 最小二乘法 |
两者的相同之处,有以下几点:
- 都可以认为使用极大似然估计做为损失函数的构造。
- 都可以使用梯度下降法进行学习。