逻辑回归为最基础的分类模型,但是逻辑回归不能进行特征交叉;因此产生了一些逻辑回归的变种,例如:Poly2、FM、FFM等;也有使用Stacking的方法,例如使用GBDT进行自动的高纬特征交叉,然后把GBDT的输出结果作为LR的输入进行训练的方法。
对于分类模型的损失函数一般为交叉熵,逻辑回归的损失函数也是交叉熵,通过极大似然估计得到的。

逻辑回归的核心思想:逻辑回归是一个二分类模型,逻辑回归可以看作是对数几率的回归,它假设预测该样本为正样本的概率服从二项分布;使用极大似然估计构造损失函数,使用梯度下降法进行训练。

逻辑回归与线性回归的异同点

如下表1,展示了逻辑回归和线性回归的不同之处。
表1 逻辑回归和线性回归的区别

序号 逻辑回归 线性回归
1 处理分类问题 处理回归问题
2 因变量是离散的 因变量是连续的
3 假设因变量y服从二项分布 假设因变量y服从正态分布
4 最大似然估计求解 最小二乘法

两者的相同之处,有以下几点:

  1. 都可以认为使用极大似然估计做为损失函数的构造。
  2. 都可以使用梯度下降法进行学习。