第3周

六、逻辑回归(Logistic Regression)

6.1 分类问题

在这个以及接下来的几个视频中,开始介绍分类问题。

在分类问题中,你要预测的变量 week3 - 图1 是离散的值,我们将学习一种叫做逻辑回归 (Logistic Regression) 的算法,这是目前最流行使用最广泛的一种学习算法。

在分类问题中,我们尝试预测的是结果是否属于某一个类(例如正确或错误)。分类问题的例子有:判断一封电子邮件是否是垃圾邮件;判断一次金融交易是否是欺诈;之前我们也谈到了肿瘤分类问题的例子,区别一个肿瘤是恶性的还是良性的。
image.png
我们从二元的分类问题开始讨论。

我们将因变量(dependent variable)可能属于的两个类分别称为负向类(negative class)和正向类(positive class),则因变量week3 - 图3 ,其中 0 表示负向类,1 表示正向类。
image.png
如果我们要用线性回归算法来解决一个分类问题,对于分类, week3 - 图5 取值为 0 或者1,但如果你使用的是线性回归,那么假设函数的输出值可能远大于 1,或者远小于0,即使所有训练样本的标签 week3 - 图6 都等于 0 或 1。尽管我们知道标签应该取值0 或者1,但是如果算法得到的值远大于1或者远小于0的话,就会感觉很奇怪。所以我们在接下来的要研究的算法就叫做逻辑回归算法,这个算法的性质是:它的输出值永远在0到 1 之间。

顺便说一下,逻辑回归算法是分类算法,我们将它作为分类算法使用。有时候可能因为这个算法的名字中出现了“回归”使你感到困惑,但逻辑回归算法实际上是一种分类算法,它适用于标签 week3 - 图7 取值离散的情况,如:1 0 0 1。

在接下来的视频中,我们将开始学习逻辑回归算法的细节。

6.2 假说表示

在这段视频中,我要给你展示假设函数的表达式,也就是说,在分类问题中,要用什么样的函数来表示我们的假设。此前我们说过,希望我们的分类器的输出值在0和1之间,因此,我们希望想出一个满足某个性质的假设函数,这个性质是它的预测值要在0和1之间。

回顾在一开始提到的乳腺癌分类问题,我们可以用线性回归的方法求出适合数据的一条直线:
image.png
根据线性回归模型我们只能预测连续的值,然而对于分类问题,我们需要输出0或1,我们可以预测:

week3 - 图9%3E%3D0.5#card=math&code=%7Bh_%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%3E%3D0.5&id=RDt5b)时,预测 week3 - 图10

week3 - 图11%3C0.5#card=math&code=%7Bh_%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%3C0.5&id=sfaqv)时,预测 week3 - 图12

对于上图所示的数据,这样的一个线性模型似乎能很好地完成分类任务。假使我们又观测到一个非常大尺寸的恶性肿瘤,将其作为实例加入到我们的训练集中来,这将使得我们获得一条新的直线。
image.png
这时,再使用0.5作为阀值来预测肿瘤是良性还是恶性便不合适了。可以看出,线性回归模型,因为其预测的值可以超越[0,1]的范围,并不适合解决这样的问题。

我们引入一个新的模型,逻辑回归,该模型的输出变量范围始终在0和1之间。
逻辑回归模型的假设是: week3 - 图14%3Dg%5Cleft(%5Ctheta%5E%7BT%7DX%20%5Cright)#card=math&code=h_%5Ctheta%20%5Cleft%28%20x%20%5Cright%29%3Dg%5Cleft%28%5Ctheta%5E%7BT%7DX%20%5Cright%29&id=kdOM5)
其中:
week3 - 图15 代表特征向量
week3 - 图16 代表逻辑函数(logistic function)是一个常用的逻辑函数为S形函数(Sigmoid function),公式为: week3 - 图17%3D%5Cfrac%7B1%7D%7B1%2B%7B%7Be%7D%5E%7B-z%7D%7D%7D#card=math&code=g%5Cleft%28%20z%20%5Cright%29%3D%5Cfrac%7B1%7D%7B1%2B%7B%7Be%7D%5E%7B-z%7D%7D%7D&id=W8X8O)。

python代码实现:

  1. import numpy as np
  2. def sigmoid(z):
  3. return 1 / (1 + np.exp(-z))

该函数的图像为:
image.png
合起来,我们得到逻辑回归模型的假设:

对模型的理解: week3 - 图19%3D%5Cfrac%7B1%7D%7B1%2B%7B%7Be%7D%5E%7B-z%7D%7D%7D#card=math&code=g%5Cleft%28%20z%20%5Cright%29%3D%5Cfrac%7B1%7D%7B1%2B%7B%7Be%7D%5E%7B-z%7D%7D%7D&id=CdwTo)。

week3 - 图20#card=math&code=h%5Ctheta%20%5Cleft%28%20x%20%5Cright%29&id=dIfTE)的作用是,对于给定的输入变量,根据选择的参数计算输出变量=1的可能性(estimated probablity)即![](https://g.yuque.com/gr/latex?h%5Ctheta%20%5Cleft(%20x%20%5Cright)%3DP%5Cleft(%20y%3D1%7Cx%3B%5Ctheta%20%5Cright)#card=math&code=h%5Ctheta%20%5Cleft%28%20x%20%5Cright%29%3DP%5Cleft%28%20y%3D1%7Cx%3B%5Ctheta%20%5Cright%29&id=TzJVb)
例如,如果对于给定的week3 - 图21,通过已经确定的参数计算得出![](https://g.yuque.com/gr/latex?h
%5Ctheta%20%5Cleft(%20x%20%5Cright)%3D0.7#card=math&code=h_%5Ctheta%20%5Cleft%28%20x%20%5Cright%29%3D0.7&id=b99io),则表示有70%的几率week3 - 图22为正向类,相应地week3 - 图23为负向类的几率为1-0.7=0.3。

6.3 判定边界

现在讲下决策边界(decision boundary)的概念。这个概念能更好地帮助我们理解逻辑回归的假设函数在计算什么。
image.png
在逻辑回归中,我们预测:

week3 - 图25%3E%3D0.5#card=math&code=%7Bh_%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%3E%3D0.5&id=b2hMG)时,预测 week3 - 图26

week3 - 图27%3C0.5#card=math&code=%7Bh_%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%3C0.5&id=KOlZm)时,预测 week3 - 图28

根据上面绘制出的 S 形函数图像,我们知道当

week3 - 图29week3 - 图30%3D0.5#card=math&code=g%28z%29%3D0.5&id=T1nI2)

week3 - 图31week3 - 图32%3E0.5#card=math&code=g%28z%29%3E0.5&id=EfkGc)

week3 - 图33week3 - 图34%3C0.5#card=math&code=g%28z%29%3C0.5&id=DOjoe)

week3 - 图35 ,即:
week3 - 图36 时,预测 week3 - 图37
week3 - 图38 时,预测 week3 - 图39

现在假设我们有一个模型:
image.png
并且参数week3 - 图41 是向量[-3 1 1]。 则当week3 - 图42,即week3 - 图43时,模型将预测 week3 - 图44
我们可以绘制直线week3 - 图45,这条线便是我们模型的分界线,将预测为1的区域和预测为 0的区域分隔开。
image.png
假使我们的数据呈现这样的分布情况,怎样的模型才能适合呢?
image.png
因为需要用曲线才能分隔 week3 - 图48 的区域和 week3 - 图49 的区域,我们需要二次方特征:week3 - 图50%3Dg%5Cleft(%20%7B%5Ctheta0%7D%2B%7B%5Ctheta_1%7D%7Bx_1%7D%2B%7B%5Ctheta%7B2%7D%7D%7Bx%7B2%7D%7D%2B%7B%5Ctheta%7B3%7D%7Dx%7B1%7D%5E%7B2%7D%2B%7B%5Ctheta%7B4%7D%7Dx%7B2%7D%5E%7B2%7D%20%5Cright)#card=math&code=%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%3Dg%5Cleft%28%20%7B%5Ctheta0%7D%2B%7B%5Ctheta_1%7D%7Bx_1%7D%2B%7B%5Ctheta%7B2%7D%7D%7Bx%7B2%7D%7D%2B%7B%5Ctheta%7B3%7D%7Dx%7B1%7D%5E%7B2%7D%2B%7B%5Ctheta%7B4%7D%7Dx_%7B2%7D%5E%7B2%7D%20%5Cright%29&id=zDPVE)是[-1 0 0 1 1],则我们得到的判定边界恰好是圆点在原点且半径为1的圆形。

我们可以用非常复杂的模型来适应非常复杂形状的判定边界。

6.4 代价函数

在这段视频中,我们要介绍如何拟合逻辑回归模型的参数week3 - 图51。具体来说,我要定义用来拟合参数的优化目标或者叫代价函数,这便是监督学习问题中的逻辑回归模型的拟合问题。
image.png
对于线性回归模型,我们定义的代价函数是所有模型误差的平方和。理论上来说,我们也可以对逻辑回归模型沿用这个定义,但是问题在于,当我们将week3 - 图53%3D%5Cfrac%7B1%7D%7B1%2B%7Be%5E%7B-%5Ctheta%5E%7BT%7Dx%7D%7D%7D#card=math&code=%7Bh_%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%3D%5Cfrac%7B1%7D%7B1%2B%7Be%5E%7B-%5Ctheta%5E%7BT%7Dx%7D%7D%7D&id=kTWKO)带入到这样定义了的代价函数中时,我们得到的代价函数将是一个非凸函数(non-convexfunction)。
image.png
这意味着我们的代价函数有许多局部最小值,这将影响梯度下降算法寻找全局最小值。

线性回归的代价函数为:week3 - 图55%3D%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5Cfrac%7B1%7D%7B2%7D%7B%7B%5Cleft(%20%7Bh%5Ctheta%7D%5Cleft(%7Bx%7D%5E%7B%5Cleft(%20i%20%5Cright)%7D%20%5Cright)-%7By%7D%5E%7B%5Cleft(%20i%20%5Cright)%7D%20%5Cright)%7D%5E%7B2%7D%7D%7D#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29%3D%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5Cfrac%7B1%7D%7B2%7D%7B%7B%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%7Bx%7D%5E%7B%5Cleft%28%20i%20%5Cright%29%7D%20%5Cright%29-%7By%7D%5E%7B%5Cleft%28%20i%20%5Cright%29%7D%20%5Cright%29%7D%5E%7B2%7D%7D%7D&id=Wprrh) 。
我们重新定义逻辑回归的代价函数为:week3 - 图56%3D%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%7BCost%7D%5Cleft(%20%7Bh%5Ctheta%7D%5Cleft(%20%7Bx%7D%5E%7B%5Cleft(%20i%20%5Cright)%7D%20%5Cright)%2C%7By%7D%5E%7B%5Cleft(%20i%20%5Cright)%7D%20%5Cright)%7D#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29%3D%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%7BCost%7D%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20%7Bx%7D%5E%7B%5Cleft%28%20i%20%5Cright%29%7D%20%5Cright%29%2C%7By%7D%5E%7B%5Cleft%28%20i%20%5Cright%29%7D%20%5Cright%29%7D&id=mum0e),其中
image.png
week3 - 图58#card=math&code=%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29&id=GUQIF)与 ![](https://g.yuque.com/gr/latex?Cost%5Cleft(%20%7Bh%5Ctheta%7D%5Cleft(%20x%20%5Cright)%2Cy%20%5Cright)#card=math&code=Cost%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%2Cy%20%5Cright%29&id=jVskG)之间的关系如下图所示:
image.png
这样构建的![](https://g.yuque.com/gr/latex?Cost%5Cleft(%20%7Bh
%5Ctheta%7D%5Cleft(%20x%20%5Cright)%2Cy%20%5Cright)#card=math&code=Cost%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%2Cy%20%5Cright%29&id=fbWoW)函数的特点是:当实际的 week3 - 图60 且![](https://g.yuque.com/gr/latex?%7Bh%5Ctheta%7D%5Cleft(%20x%20%5Cright)#card=math&code=%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29&id=gSclf)也为 1 时误差为 0,当 week3 - 图61 但![](https://g.yuque.com/gr/latex?%7Bh%5Ctheta%7D%5Cleft(%20x%20%5Cright)#card=math&code=%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29&id=oGyGj)不为1时误差随着![](https://g.yuque.com/gr/latex?%7Bh%5Ctheta%7D%5Cleft(%20x%20%5Cright)#card=math&code=%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29&id=b3xa2)变小而变大;当实际的 week3 - 图62 且![](https://g.yuque.com/gr/latex?%7Bh%5Ctheta%7D%5Cleft(%20x%20%5Cright)#card=math&code=%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29&id=zrn7S)也为 0 时代价为 0,当week3 - 图63 但![](https://g.yuque.com/gr/latex?%7Bh%5Ctheta%7D%5Cleft(%20x%20%5Cright)#card=math&code=%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29&id=u43bW)不为 0时误差随着 ![](https://g.yuque.com/gr/latex?%7Bh%5Ctheta%7D%5Cleft(%20x%20%5Cright)#card=math&code=%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29&id=KEYVb)的变大而变大。
将构建的 ![](https://g.yuque.com/gr/latex?Cost%5Cleft(%20%7Bh
%5Ctheta%7D%5Cleft(%20x%20%5Cright)%2Cy%20%5Cright)#card=math&code=Cost%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%2Cy%20%5Cright%29&id=gSrlW)简化如下:
![](https://g.yuque.com/gr/latex?Cost%5Cleft(%20%7Bh
%5Ctheta%7D%5Cleft(%20x%20%5Cright)%2Cy%20%5Cright)%3D-y%5Ctimes%20log%5Cleft(%20%7Bh%5Ctheta%7D%5Cleft(%20x%20%5Cright)%20%5Cright)-(1-y)%5Ctimes%20log%5Cleft(%201-%7Bh%5Ctheta%7D%5Cleft(%20x%20%5Cright)%20%5Cright)#card=math&code=Cost%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%2Cy%20%5Cright%29%3D-y%5Ctimes%20log%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%20%5Cright%29-%281-y%29%5Ctimes%20log%5Cleft%28%201-%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%20%5Cright%29&id=uCihs)
带入代价函数得到:
week3 - 图64%3D%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits
%7Bi%3D1%7D%5E%7Bm%7D%7B%5B-%7B%7By%7D%5E%7B(i)%7D%7D%5Clog%20%5Cleft(%20%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%20%5Cright)-%5Cleft(%201-%7B%7By%7D%5E%7B(i)%7D%7D%20%5Cright)%5Clog%20%5Cleft(%201-%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%20%5Cright)%5D%7D#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29%3D%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B-%7B%7By%7D%5E%7B%28i%29%7D%7D%5Clog%20%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%20%5Cright%29-%5Cleft%28%201-%7B%7By%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%5Clog%20%5Cleft%28%201-%7Bh%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%20%5Cright%29%5D%7D&id=V7oKa)
即:week3 - 图65%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits
%7Bi%3D1%7D%5E%7Bm%7D%7B%5B%7B%7By%7D%5E%7B(i)%7D%7D%5Clog%20%5Cleft(%20%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%20%5Cright)%2B%5Cleft(%201-%7B%7By%7D%5E%7B(i)%7D%7D%20%5Cright)%5Clog%20%5Cleft(%201-%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%20%5Cright)%5D%7D#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B%7B%7By%7D%5E%7B%28i%29%7D%7D%5Clog%20%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%20%5Cright%29%2B%5Cleft%28%201-%7B%7By%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%5Clog%20%5Cleft%28%201-%7Bh_%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%20%5Cright%29%5D%7D&id=xH8tR)

Python代码实现:

  1. import numpy as np
  2. def cost(theta, X, y):
  3. theta = np.matrix(theta)
  4. X = np.matrix(X)
  5. y = np.matrix(y)
  6. first = np.multiply(-y, np.log(sigmoid(X* theta.T)))
  7. second = np.multiply((1 - y), np.log(1 - sigmoid(X* theta.T)))
  8. return np.sum(first - second) / (len(X))

在得到这样一个代价函数以后,我们便可以用梯度下降算法来求得能使代价函数最小的参数了。算法为:

Repeat {
week3 - 图66#card=math&code=%5Ctheta_j%20%3A%3D%20%5Ctheta_j%20-%20%5Calpha%20%5Cfrac%7B%5Cpartial%7D%7B%5Cpartial%5Ctheta_j%7D%20J%28%5Ctheta%29&id=gFYTN)
(simultaneously update all )
}

求导后得到:

Repeat {
week3 - 图67%7D%20%5Cright)-%5Cmathop%7By%7D%5E%7B%5Cleft(%20i%20%5Cright)%7D%20%5Cright)%7D%7D%5Cmathop%7Bx%7D%7Bj%7D%5E%7B(i)%7D#card=math&code=%5Ctheta_j%20%3A%3D%20%5Ctheta_j%20-%20%5Calpha%20%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%7B%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20%5Cmathop%7Bx%7D%5E%7B%5Cleft%28%20i%20%5Cright%29%7D%20%5Cright%29-%5Cmathop%7By%7D%5E%7B%5Cleft%28%20i%20%5Cright%29%7D%20%5Cright%29%7D%7D%5Cmathop%7Bx%7D%7Bj%7D%5E%7B%28i%29%7D&id=BtdVk)
(simultaneously update all )
}

在这个视频中,我们定义了单训练样本的代价函数,凸性分析的内容是超出这门课的范围的,但是可以证明我们所选的代价值函数会给我们一个凸优化问题。代价函数week3 - 图68#card=math&code=J%28%5Ctheta%29&id=hVHi5)会是一个凸函数,并且没有局部最优值。

推导过程:

week3 - 图69%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B%7B%7By%7D%5E%7B(i)%7D%7D%5Clog%20%5Cleft(%20%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%20%5Cright)%2B%5Cleft(%201-%7B%7By%7D%5E%7B(i)%7D%7D%20%5Cright)%5Clog%20%5Cleft(%201-%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%20%5Cright)%5D%7D#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B%7B%7By%7D%5E%7B%28i%29%7D%7D%5Clog%20%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%20%5Cright%29%2B%5Cleft%28%201-%7B%7By%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%5Clog%20%5Cleft%28%201-%7Bh%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%20%5Cright%29%5D%7D&id=PSTkh)
考虑:
week3 - 图70%7D%7D%20%5Cright)%3D%5Cfrac%7B1%7D%7B1%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D#card=math&code=%7Bh%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%3D%5Cfrac%7B1%7D%7B1%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D&id=s1qsx)
则:
week3 - 图71%7D%7D%5Clog%20%5Cleft(%20%7Bh
%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%20%5Cright)%2B%5Cleft(%201-%7B%7By%7D%5E%7B(i)%7D%7D%20%5Cright)%5Clog%20%5Cleft(%201-%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%20%5Cright)#card=math&code=%7B%7By%7D%5E%7B%28i%29%7D%7D%5Clog%20%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%20%5Cright%29%2B%5Cleft%28%201-%7B%7By%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%5Clog%20%5Cleft%28%201-%7Bh_%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%20%5Cright%29&id=ZJta2)
week3 - 图72%7D%7D%5Clog%20%5Cleft(%20%5Cfrac%7B1%7D%7B1%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D%20%5Cright)%2B%5Cleft(%201-%7B%7By%7D%5E%7B(i)%7D%7D%20%5Cright)%5Clog%20%5Cleft(%201-%5Cfrac%7B1%7D%7B1%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D%20%5Cright)#card=math&code=%3D%7B%7By%7D%5E%7B%28i%29%7D%7D%5Clog%20%5Cleft%28%20%5Cfrac%7B1%7D%7B1%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D%20%5Cright%29%2B%5Cleft%28%201-%7B%7By%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%5Clog%20%5Cleft%28%201-%5Cfrac%7B1%7D%7B1%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D%20%5Cright%29&id=s71yF)
week3 - 图73%7D%7D%5Clog%20%5Cleft(%201%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%20%5Cright)-%5Cleft(%201-%7B%7By%7D%5E%7B(i)%7D%7D%20%5Cright)%5Clog%20%5Cleft(%201%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%20%5Cright)#card=math&code=%3D-%7B%7By%7D%5E%7B%28i%29%7D%7D%5Clog%20%5Cleft%28%201%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%20%5Cright%29-%5Cleft%28%201-%7B%7By%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%5Clog%20%5Cleft%28%201%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%20%5Cright%29&id=BvOgg)

所以:
week3 - 图74%3D%5Cfrac%7B%5Cpartial%20%7D%7B%5Cpartial%20%7B%5Ctheta%7Bj%7D%7D%7D%5B-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B-%7B%7By%7D%5E%7B(i)%7D%7D%5Clog%20%5Cleft(%201%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5E%7BT%7D%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%20%5Cright)-%5Cleft(%201-%7B%7By%7D%5E%7B(i)%7D%7D%20%5Cright)%5Clog%20%5Cleft(%201%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5E%7BT%7D%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%20%5Cright)%5D%7D%5D#card=math&code=%5Cfrac%7B%5Cpartial%20%7D%7B%5Cpartial%20%7B%5Ctheta%7Bj%7D%7D%7DJ%5Cleft%28%20%5Ctheta%20%20%5Cright%29%3D%5Cfrac%7B%5Cpartial%20%7D%7B%5Cpartial%20%7B%5Ctheta%7Bj%7D%7D%7D%5B-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B-%7B%7By%7D%5E%7B%28i%29%7D%7D%5Clog%20%5Cleft%28%201%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5E%7BT%7D%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%20%5Cright%29-%5Cleft%28%201-%7B%7By%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%5Clog%20%5Cleft%28%201%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5E%7BT%7D%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%20%5Cright%29%5D%7D%5D&id=Fz18Y)
![](https://g.yuque.com/gr/latex?%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits
%7Bi%3D1%7D%5E%7Bm%7D%7B%5B-%7B%7By%7D%5E%7B(i)%7D%7D%5Cfrac%7B-x%7Bj%7D%5E%7B(i)%7D%7B%7Be%7D%5E%7B-%7B%5Ctheta%5E%7BT%7D%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D%7B1%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5E%7BT%7D%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D-%5Cleft(%201-%7B%7By%7D%5E%7B(i)%7D%7D%20%5Cright)%5Cfrac%7Bx_j%5E%7B(i)%7D%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D%7B1%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D%7D%5D#card=math&code=%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B-%7B%7By%7D%5E%7B%28i%29%7D%7D%5Cfrac%7B-x%7Bj%7D%5E%7B%28i%29%7D%7B%7Be%7D%5E%7B-%7B%5Ctheta%5E%7BT%7D%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D%7B1%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5E%7BT%7D%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D-%5Cleft%28%201-%7B%7By%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%5Cfrac%7Bx_j%5E%7B%28i%29%7D%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D%7B1%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D%7D%5D&id=rbNeZ)
![](https://g.yuque.com/gr/latex?%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits
%7Bi%3D1%7D%5E%7Bm%7D%7B%7By%7D%5E%7B(i)%7D%7D%5Cfrac%7Bxj%5E%7B(i)%7D%7D%7B1%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D-%5Cleft(%201-%7B%7By%7D%5E%7B(i)%7D%7D%20%5Cright)%5Cfrac%7Bx_j%5E%7B(i)%7D%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D%7B1%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D%5D#card=math&code=%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%7By%7D%5E%7B%28i%29%7D%7D%5Cfrac%7Bxj%5E%7B%28i%29%7D%7D%7B1%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D-%5Cleft%28%201-%7B%7By%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%5Cfrac%7Bx_j%5E%7B%28i%29%7D%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D%7B1%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D%5D&id=NZnnk)
![](https://g.yuque.com/gr/latex?%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits
%7Bi%3D1%7D%5E%7Bm%7D%7B%5Cfrac%7B%7B%7By%7D%5E%7B(i)%7D%7Dxj%5E%7B(i)%7D-x_j%5E%7B(i)%7D%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%2B%7B%7By%7D%5E%7B(i)%7D%7Dx_j%5E%7B(i)%7D%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D%7B1%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D%7D#card=math&code=%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5Cfrac%7B%7B%7By%7D%5E%7B%28i%29%7D%7Dxj%5E%7B%28i%29%7D-x_j%5E%7B%28i%29%7D%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%2B%7B%7By%7D%5E%7B%28i%29%7D%7Dx_j%5E%7B%28i%29%7D%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D%7B1%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D%7D&id=SLdt4)
![](https://g.yuque.com/gr/latex?%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits
%7Bi%3D1%7D%5E%7Bm%7D%7B%5Cfrac%7B%7B%7By%7D%5E%7B(i)%7D%7D%5Cleft(%201%5Ctext%7B%2B%7D%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%20%5Cright)-%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D%7B1%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7Dxj%5E%7B(i)%7D%7D#card=math&code=%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5Cfrac%7B%7B%7By%7D%5E%7B%28i%29%7D%7D%5Cleft%28%201%5Ctext%7B%2B%7D%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%20%5Cright%29-%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D%7B1%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7Dxj%5E%7B%28i%29%7D%7D&id=aD2vq)
![](https://g.yuque.com/gr/latex?%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits
%7Bi%3D1%7D%5E%7Bm%7D%7B(%7B%7By%7D%5E%7B(i)%7D%7D-%5Cfrac%7B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D%7B1%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D)xj%5E%7B(i)%7D%7D#card=math&code=%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%28%7B%7By%7D%5E%7B%28i%29%7D%7D-%5Cfrac%7B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D%7B1%2B%7B%7Be%7D%5E%7B%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D%29xj%5E%7B%28i%29%7D%7D&id=wywc3)
![](https://g.yuque.com/gr/latex?%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits
%7Bi%3D1%7D%5E%7Bm%7D%7B(%7B%7By%7D%5E%7B(i)%7D%7D-%5Cfrac%7B1%7D%7B1%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B(i)%7D%7D%7D%7D%7D)xj%5E%7B(i)%7D%7D#card=math&code=%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%28%7B%7By%7D%5E%7B%28i%29%7D%7D-%5Cfrac%7B1%7D%7B1%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5ET%7D%7B%7Bx%7D%5E%7B%28i%29%7D%7D%7D%7D%7D%29xj%5E%7B%28i%29%7D%7D&id=yb62i)
![](https://g.yuque.com/gr/latex?%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits
%7Bi%3D1%7D%5E%7Bm%7D%7B%5B%7B%7By%7D%5E%7B(i)%7D%7D-%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%5Dx_j%5E%7B(i)%7D%7D#card=math&code=%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B%7B%7By%7D%5E%7B%28i%29%7D%7D-%7Bh%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%5Dx_j%5E%7B%28i%29%7D%7D&id=ne7Jj)
![](https://g.yuque.com/gr/latex?%3D%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits
%7Bi%3D1%7D%5E%7Bm%7D%7B%5B%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)-%7B%7By%7D%5E%7B(i)%7D%7D%5Dx_j%5E%7B(i)%7D%7D#card=math&code=%3D%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B%7Bh_%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29-%7B%7By%7D%5E%7B%28i%29%7D%7D%5Dx_j%5E%7B%28i%29%7D%7D&id=K5Hnd)

注:虽然得到的梯度下降算法表面上看上去与线性回归的梯度下降算法一样,但是这里的week3 - 图75%3Dg%5Cleft(%20%7B%5Ctheta%5ET%7DX%20%5Cright)#card=math&code=%7Bh_%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%3Dg%5Cleft%28%20%7B%5Ctheta%5ET%7DX%20%5Cright%29&id=wb6Wx)与线性回归中不同,所以实际上是不一样的。另外,在运行梯度下降算法之前,进行特征缩放依旧是非常必要的。

一些梯度下降算法之外的选择:
除了梯度下降算法以外,还有一些常被用来令代价函数最小的算法,这些算法更加复杂和优越,而且通常不需要人工选择学习率,通常比梯度下降算法要更加快速。这些算法有:共轭梯度Conjugate Gradient),局部优化法(Broyden fletcher goldfarb shann,BFGS)和有限内存局部优化法(LBFGS) ,fminuncmatlaboctave 中都带的一个最小值优化函数,使用时我们需要提供代价函数和每个参数的求导,下面是 octave 中使用 fminunc 函数的代码示例:

  1. function [jVal, gradient] = costFunction(theta)
  2. jVal = [...code to compute J(theta)...];
  3. gradient = [...code to compute derivative of J(theta)...];
  4. end
  5. options = optimset('GradObj', 'on', 'MaxIter', '100');
  6. initialTheta = zeros(2,1);
  7. [optTheta, functionVal, exitFlag] = fminunc(@costFunction, initialTheta, options);

在下一个视频中,我们会把单训练样本的代价函数的这些理念进一步发展,然后给出整个训练集的代价函数的定义,我们还会找到一种比我们目前用的更简单的写法,基于这些推导出的结果,我们将应用梯度下降法得到我们的逻辑回归算法。

6.5 简化的成本函数和梯度下降

在这段视频中,我们将会找出一种稍微简单一点的方法来写代价函数,来替换我们现在用的方法。同时我们还要弄清楚如何运用梯度下降法,来拟合出逻辑回归的参数。因此,听了这节课,你就应该知道如何实现一个完整的逻辑回归算法。

这就是逻辑回归的代价函数:
image.png
这个式子可以合并成:

week3 - 图77%2Cy%20%5Cright)%3D-y%5Ctimes%20log%5Cleft(%20%7Bh%5Ctheta%7D%5Cleft(%20x%20%5Cright)%20%5Cright)-(1-y)%5Ctimes%20log%5Cleft(%201-%7Bh%5Ctheta%7D%5Cleft(%20x%20%5Cright)%20%5Cright)#card=math&code=Cost%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%2Cy%20%5Cright%29%3D-y%5Ctimes%20log%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%20%5Cright%29-%281-y%29%5Ctimes%20log%5Cleft%28%201-%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%20%5Cright%29&id=T3UZ1)
即,逻辑回归的代价函数:
![](https://g.yuque.com/gr/latex?Cost%5Cleft(%20%7Bh
%5Ctheta%7D%5Cleft(%20x%20%5Cright)%2Cy%20%5Cright)%3D-y%5Ctimes%20log%5Cleft(%20%7Bh%5Ctheta%7D%5Cleft(%20x%20%5Cright)%20%5Cright)-(1-y)%5Ctimes%20log%5Cleft(%201-%7Bh%5Ctheta%7D%5Cleft(%20x%20%5Cright)%20%5Cright)#card=math&code=Cost%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%2Cy%20%5Cright%29%3D-y%5Ctimes%20log%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%20%5Cright%29-%281-y%29%5Ctimes%20log%5Cleft%28%201-%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%20%5Cright%29&id=OSSxH)
![](https://g.yuque.com/gr/latex?%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits
%7Bi%3D1%7D%5E%7Bm%7D%7B%5B%7B%7By%7D%5E%7B(i)%7D%7D%5Clog%20%5Cleft(%20%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%20%5Cright)%2B%5Cleft(%201-%7B%7By%7D%5E%7B(i)%7D%7D%20%5Cright)%5Clog%20%5Cleft(%201-%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%20%5Cright)%5D%7D#card=math&code=%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B%7B%7By%7D%5E%7B%28i%29%7D%7D%5Clog%20%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%20%5Cright%29%2B%5Cleft%28%201-%7B%7By%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%5Clog%20%5Cleft%28%201-%7Bh_%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%20%5Cright%29%5D%7D&id=SxSig)
根据这个代价函数,为了拟合出参数,该怎么做呢?我们要试图找尽量让week3 - 图78#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=LJenQ) 取得最小值的参数week3 - 图79week3 - 图80
所以我们想要尽量减小这一项,这将我们将得到某个参数week3 - 图81
如果我们给出一个新的样本,假如某个特征 week3 - 图82,我们可以用拟合训练样本的参数week3 - 图83,来输出对假设的预测。
另外,我们假设的输出,实际上就是这个概率值:week3 - 图84,就是关于 week3 - 图85week3 - 图86为参数,week3 - 图87的概率,你可以认为我们的假设就是估计 week3 - 图88 的概率,所以,接下来就是弄清楚如何最大限度地最小化代价函数week3 - 图89#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=YErLv),作为一个关于week3 - 图90的函数,这样我们才能为训练集拟合出参数week3 - 图91

最小化代价函数的方法,是使用梯度下降法(gradient descent)。这是我们的代价函数:
week3 - 图92%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B%7B%7By%7D%5E%7B(i)%7D%7D%5Clog%20%5Cleft(%20%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%20%5Cright)%2B%5Cleft(%201-%7B%7By%7D%5E%7B(i)%7D%7D%20%5Cright)%5Clog%20%5Cleft(%201-%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%20%5Cright)%5D%7D#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29%3D-%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B%7B%7By%7D%5E%7B%28i%29%7D%7D%5Clog%20%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%20%5Cright%29%2B%5Cleft%28%201-%7B%7By%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%5Clog%20%5Cleft%28%201-%7Bh%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%20%5Cright%29%5D%7D&id=LeS53)

如果我们要最小化这个关于week3 - 图93的函数值,这就是我们通常用的梯度下降法的模板。
image.png
我们要反复更新每个参数,用这个式子来更新,就是用它自己减去学习率 week3 - 图95
乘以后面的微分项。求导后得到:
image.png
如果你计算一下的话,你会得到这个等式:
week3 - 图97%7D%7D)-%7B%7By%7D%5E%7B(i)%7D%7D)%7Bx%7Bj%7D%7D%5E%7B(i)%7D%7D#card=math&code=%7B%5Ctheta_j%7D%3A%3D%7B%5Ctheta_j%7D-%5Calpha%20%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%28%7Bh%5Ctheta%7D%28%7B%7Bx%7D%5E%7B%28i%29%7D%7D%29-%7B%7By%7D%5E%7B%28i%29%7D%7D%29%7Bx%7Bj%7D%7D%5E%7B%28i%29%7D%7D&id=IW5dT)
我把它写在这里,将后面这个式子,在 week3 - 图98week3 - 图99 上求和,其实就是预测误差乘以week3 - 图100%7D#card=math&code=xj%5E%7B%28i%29%7D&id=R9u7m) ,所以你把这个偏导数项week3 - 图101#card=math&code=%5Cfrac%7B%5Cpartial%20%7D%7B%5Cpartial%20%7B%5Ctheta_j%7D%7DJ%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=ShdA2)放回到原来式子这里,我们就可以将梯度下降算法写作如下形式:
![](https://g.yuque.com/gr/latex?%7B%5Ctheta_j%7D%3A%3D%7B%5Ctheta_j%7D-%5Calpha%20%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits
%7Bi%3D1%7D%5E%7Bm%7D%7B(%7Bh%5Ctheta%7D(%7B%7Bx%7D%5E%7B(i)%7D%7D)-%7B%7By%7D%5E%7B(i)%7D%7D)%7Bx%7Bj%7D%7D%5E%7B(i)%7D%7D#card=math&code=%7B%5Cthetaj%7D%3A%3D%7B%5Ctheta_j%7D-%5Calpha%20%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%28%7Bh%5Ctheta%7D%28%7B%7Bx%7D%5E%7B%28i%29%7D%7D%29-%7B%7By%7D%5E%7B%28i%29%7D%7D%29%7Bx%7Bj%7D%7D%5E%7B%28i%29%7D%7D&id=VIt96)

所以,如果你有 week3 - 图102 个特征,也就是说:image.png,参数向量week3 - 图104 包括week3 - 图105 week3 - 图106 week3 - 图107 一直到week3 - 图108,那么你就需要用这个式子:

week3 - 图109%7D%7D)-%7B%7By%7D%5E%7B(i)%7D%7D)%7B%7Bx%7D%7Bj%7D%7D%5E%7B(i)%7D%7D#card=math&code=%7B%5Ctheta_j%7D%3A%3D%7B%5Ctheta_j%7D-%5Calpha%20%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%28%7Bh%5Ctheta%7D%28%7B%7Bx%7D%5E%7B%28i%29%7D%7D%29-%7B%7By%7D%5E%7B%28i%29%7D%7D%29%7B%7Bx%7D%7Bj%7D%7D%5E%7B%28i%29%7D%7D&id=duP18)来同时更新所有week3 - 图110的值。

现在,如果你把这个更新规则和我们之前用在线性回归上的进行比较的话,你会惊讶地发现,这个式子正是我们用来做线性回归梯度下降的。

那么,线性回归和逻辑回归是同一个算法吗?要回答这个问题,我们要观察逻辑回归看看发生了哪些变化。实际上,假设的定义发生了变化。

对于线性回归假设函数:

week3 - 图111%3D%7B%5Ctheta%5ET%7DX%3D%7B%5Ctheta%7B0%7D%7D%7Bx%7B0%7D%7D%2B%7B%5Ctheta%7B1%7D%7D%7Bx%7B1%7D%7D%2B%7B%5Ctheta%7B2%7D%7D%7Bx%7B2%7D%7D%2B…%2B%7B%5Ctheta%7Bn%7D%7D%7Bx%7Bn%7D%7D#card=math&code=%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%3D%7B%5Ctheta%5ET%7DX%3D%7B%5Ctheta%7B0%7D%7D%7Bx%7B0%7D%7D%2B%7B%5Ctheta%7B1%7D%7D%7Bx%7B1%7D%7D%2B%7B%5Ctheta%7B2%7D%7D%7Bx%7B2%7D%7D%2B…%2B%7B%5Ctheta%7Bn%7D%7D%7Bx_%7Bn%7D%7D&id=jCdN0)

而现在逻辑函数假设函数:

week3 - 图112%3D%5Cfrac%7B1%7D%7B1%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5ET%7DX%7D%7D%7D#card=math&code=%7Bh_%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%3D%5Cfrac%7B1%7D%7B1%2B%7B%7Be%7D%5E%7B-%7B%5Ctheta%5ET%7DX%7D%7D%7D&id=Bfur0)

因此,即使更新参数的规则看起来基本相同,但由于假设的定义发生了变化,所以逻辑函数的梯度下降,跟线性回归的梯度下降实际上是两个完全不同的东西。

在先前的视频中,当我们在谈论线性回归的梯度下降法时,我们谈到了如何监控梯度下降法以确保其收敛,我通常也把同样的方法用在逻辑回归中,来监测梯度下降,以确保它正常收敛。

当使用梯度下降法来实现逻辑回归时,我们有这些不同的参数week3 - 图113 ,就是week3 - 图114 week3 - 图115 week3 - 图116 一直到week3 - 图117,我们需要用这个表达式来更新这些参数。我们还可以使用 for循环来更新这些参数值,用 for i=1 to n,或者 for i=1 to n+1。当然,不用 for循环也是可以的,理想情况下,我们更提倡使用向量化的实现,可以把所有这些 week3 - 图118个参数同时更新。

最后还有一点,我们之前在谈线性回归时讲到的特征缩放,我们看到了特征缩放是如何提高梯度下降的收敛速度的,这个特征缩放的方法,也适用于逻辑回归。如果你的特征范围差距很大的话,那么应用特征缩放的方法,同样也可以让逻辑回归中,梯度下降收敛更快。

就是这样,现在你知道如何实现逻辑回归,这是一种非常强大,甚至可能世界上使用最广泛的一种分类算法。

6.6 高级优化

在上一个视频中,我们讨论了用梯度下降的方法最小化逻辑回归中代价函数week3 - 图119#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=ROpJ2)。在本次视频中,我会教你们一些高级优化算法和一些高级的优化概念,利用这些方法,我们就能够使通过梯度下降,进行逻辑回归的速度大大提高,而这也将使算法更加适合解决大型的机器学习问题,比如,我们有数目庞大的特征量。
现在我们换个角度来看什么是梯度下降,我们有个代价函数week3 - 图120#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=B6bx9),而我们想要使其最小化,那么我们需要做的是编写代码,当输入参数 week3 - 图121 时,它们会计算出两样东西:week3 - 图122#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=V60Hy) 以及week3 - 图123 等于 0、1直到 week3 - 图124 时的偏导数项。
image.png
假设我们已经完成了可以实现这两件事的代码,那么梯度下降所做的就是反复执行这些更新。
另一种考虑梯度下降的思路是:我们需要写出代码来计算week3 - 图126#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=Iz9tW) 和这些偏导数,然后把这些插入到梯度下降中,然后它就可以为我们最小化这个函数。
对于梯度下降来说,我认为从技术上讲,你实际并不需要编写代码来计算代价函数week3 - 图127#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=xMeaW)。你只需要编写代码来计算导数项,但是,如果你希望代码还要能够监控这些week3 - 图128#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=eea5D) 的收敛性,那么我们就需要自己编写代码来计算代价函数week3 - 图129#card=math&code=J%28%5Ctheta%29&id=qtczC)和偏导数项week3 - 图130#card=math&code=%5Cfrac%7B%5Cpartial%20%7D%7B%5Cpartial%20%7B%5Ctheta_j%7D%7DJ%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=G4NeQ)。所以,在写完能够计算这两者的代码之后,我们就可以使用梯度下降。
然而梯度下降并不是我们可以使用的唯一算法,还有其他一些算法,更高级、更复杂。如果我们能用这些方法来计算代价函数week3 - 图131#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=LFTF1)和偏导数项week3 - 图132#card=math&code=%5Cfrac%7B%5Cpartial%20%7D%7B%5Cpartial%20%7B%5Ctheta_j%7D%7DJ%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=sJ6Id)两个项的话,那么这些算法就是为我们优化代价函数的不同方法,共轭梯度法 BFGS (变尺度法) 和L-BFGS (限制变尺度法) 就是其中一些更高级的优化算法,它们需要有一种方法来计算 week3 - 图133#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=oeJxv),以及需要一种方法计算导数项,然后使用比梯度下降更复杂的算法来最小化代价函数。这三种算法的具体细节超出了本门课程的范畴。实际上你最后通常会花费很多天,或几周时间研究这些算法,你可以专门学一门课来提高数值计算能力,不过让我来告诉你他们的一些特性:

这三种算法有许多优点:

一个是使用这其中任何一个算法,你通常不需要手动选择学习率 week3 - 图134,所以对于这些算法的一种思路是,给出计算导数项和代价函数的方法,你可以认为算法有一个智能的内部循环,而且,事实上,他们确实有一个智能的内部循环,称为线性搜索(line search)算法,它可以自动尝试不同的学习速率 week3 - 图135,并自动选择一个好的学习速率 week3 - 图136,因此它甚至可以为每次迭代选择不同的学习速率,那么你就不需要自己选择。这些算法实际上在做更复杂的事情,不仅仅是选择一个好的学习速率,所以它们往往最终比梯度下降收敛得快多了,不过关于它们到底做什么的详细讨论,已经超过了本门课程的范围。

实际上,我过去使用这些算法已经很长一段时间了,也许超过十年了,使用得相当频繁,而直到几年前我才真正搞清楚共轭梯度法 BFGSL-BFGS的细节。

我们实际上完全有可能成功使用这些算法,并应用于许多不同的学习问题,而不需要真正理解这些算法的内环间在做什么,如果说这些算法有缺点的话,那么我想说主要缺点是它们比梯度下降法复杂多了,特别是你最好不要使用 L-BGFSBFGS这些算法,除非你是数值计算方面的专家。实际上,我不会建议你们编写自己的代码来计算数据的平方根,或者计算逆矩阵,因为对于这些算法,我还是会建议你直接使用一个软件库,比如说,要求一个平方根,我们所能做的就是调用一些别人已经写好用来计算数字平方根的函数。幸运的是现在我们有Octave 和与它密切相关的 MATLAB 语言可以使用。

Octave 有一个非常理想的库用于实现这些先进的优化算法,所以,如果你直接调用它自带的库,你就能得到不错的结果。我必须指出这些算法实现得好或不好是有区别的,因此,如果你正在你的机器学习程序中使用一种不同的语言,比如如果你正在使用CC++Java等等,你可能会想尝试一些不同的库,以确保你找到一个能很好实现这些算法的库。因为在L-BFGS或者等高线梯度的实现上,表现得好与不太好是有差别的,因此现在让我们来说明:如何使用这些算法:
image.png
比方说,你有一个含两个参数的问题,这两个参数是week3 - 图138week3 - 图139,因此,通过这个代价函数,你可以得到week3 - 图140week3 - 图141的值,如果你将week3 - 图142#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=OzA5p) 最小化的话,那么它的最小值将是week3 - 图143week3 - 图144。代价函数week3 - 图145#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=GPTZw)的导数推出来就是这两个表达式:

week3 - 图146%3D2(%7B%7B%5Ctheta%20%7D%7B1%7D%7D-5)#card=math&code=%5Cfrac%7B%5Cpartial%20%7D%7B%5Cpartial%20%7B%7B%5Ctheta%20%7D%7B1%7D%7D%7DJ%28%5Ctheta%29%3D2%28%7B%7B%5Ctheta%20%7D_%7B1%7D%7D-5%29&id=xp3PN)

week3 - 图147%3D2(%7B%7B%5Ctheta%20%7D%7B2%7D%7D-5)#card=math&code=%5Cfrac%7B%5Cpartial%20%7D%7B%5Cpartial%20%7B%7B%5Ctheta%20%7D%7B2%7D%7D%7DJ%28%5Ctheta%29%3D2%28%7B%7B%5Ctheta%20%7D_%7B2%7D%7D-5%29&id=EH8fd)

如果我们不知道最小值,但你想要代价函数找到这个最小值,是用比如梯度下降这些算法,但最好是用比它更高级的算法,你要做的就是运行一个像这样的Octave 函数:

  1. function [jVal, gradient]=costFunction(theta)
  2.   jVal=(theta(1)-5)^2+(theta(2)-5)^2;
  3.   gradient=zeros(2,1);
  4.   gradient(1)=2*(theta(1)-5);
  5.   gradient(2)=2*(theta(2)-5);
  6. end

这样就计算出这个代价函数,函数返回的第二个值是梯度值,梯度值应该是一个2×1的向量,梯度向量的两个元素对应这里的两个偏导数项,运行这个costFunction 函数后,你就可以调用高级的优化函数,这个函数叫
fminunc,它表示Octave 里无约束最小化函数。调用它的方式如下:

  1. options=optimset('GradObj','on','MaxIter',100);
  2. initialTheta=zeros(2,1);
  3. [optTheta, functionVal, exitFlag]=fminunc(@costFunction, initialTheta, options);

你要设置几个options,这个 options 变量作为一个数据结构可以存储你想要的options,所以 GradObjOn,这里设置梯度目标参数为打开(on),这意味着你现在确实要给这个算法提供一个梯度,然后设置最大迭代次数,比方说100,我们给出一个week3 - 图148 的猜测初始值,它是一个2×1的向量,那么这个命令就调用fminunc,这个@符号表示指向我们刚刚定义的costFunction 函数的指针。如果你调用它,它就会使用众多高级优化算法中的一个,当然你也可以把它当成梯度下降,只不过它能自动选择学习速率week3 - 图149,你不需要自己来做。然后它会尝试使用这些高级的优化算法,就像加强版的梯度下降法,为你找到最佳的week3 - 图150值。

让我告诉你它在 Octave 里什么样:
image.png
所以我写了这个关于thetacostFunction 函数,它计算出代价函数 jval以及梯度gradientgradient 有两个元素,是代价函数对于theta(1)theta(2)这两个参数的偏导数。

我希望你们从这个幻灯片中学到的主要内容是:写一个函数,它能返回代价函数值、梯度值,因此要把这个应用到逻辑回归,或者甚至线性回归中,你也可以把这些优化算法用于线性回归,你需要做的就是输入合适的代码来计算这里的这些东西。

现在你已经知道如何使用这些高级的优化算法,有了这些算法,你就可以使用一个复杂的优化库,它让算法使用起来更模糊一点。因此也许稍微有点难调试,不过由于这些算法的运行速度通常远远超过梯度下降。

所以当我有一个很大的机器学习问题时,我会选择这些高级算法,而不是梯度下降。有了这些概念,你就应该能将逻辑回归和线性回归应用于更大的问题中,这就是高级优化的概念。

在下一个视频,我想要告诉你如何修改你已经知道的逻辑回归算法,然后使它在多类别分类问题中也能正常运行。

6.7 多类别分类:一对多

在本节视频中,我们将谈到如何使用逻辑回归 (logistic regression)来解决多类别分类问题,具体来说,我想通过一个叫做”一对多” (one-vs-all) 的分类算法。

先看这样一些例子。

第一个例子:假如说你现在需要一个学习算法能自动地将邮件归类到不同的文件夹里,或者说可以自动地加上标签,那么,你也许需要一些不同的文件夹,或者不同的标签来完成这件事,来区分开来自工作的邮件、来自朋友的邮件、来自家人的邮件或者是有关兴趣爱好的邮件,那么,我们就有了这样一个分类问题:其类别有四个,分别用week3 - 图152week3 - 图153week3 - 图154week3 - 图155 来代表。

第二个例子是有关药物诊断的,如果一个病人因为鼻塞来到你的诊所,他可能并没有生病,用 week3 - 图156 这个类别来代表;或者患了感冒,用 week3 - 图157 来代表;或者得了流感用week3 - 图158来代表。

第三个例子:如果你正在做有关天气的机器学习分类问题,那么你可能想要区分哪些天是晴天、多云、雨天、或者下雪天,对上述所有的例子,week3 - 图159 可以取一个很小的数值,一个相对”谨慎”的数值,比如1 到3、1到4或者其它数值,以上说的都是多类分类问题,顺便一提的是,对于下标是0 1 2 3,还是 1 2 3 4 都不重要,我更喜欢将分类从 1 开始标而不是0,其实怎样标注都不会影响最后的结果。

然而对于之前的一个,二元分类问题,我们的数据看起来可能是像这样:
image.png
对于一个多类分类问题,我们的数据集或许看起来像这样:
image.png
我用3种不同的符号来代表3个类别,问题就是给出3个类型的数据集,我们如何得到一个学习算法来进行分类呢?

我们现在已经知道如何进行二元分类,可以使用逻辑回归,对于直线或许你也知道,可以将数据集一分为二为正类和负类。用一对多的分类思想,我们可以将其用在多类分类问题上。

下面将介绍如何进行一对多的分类工作,有时这个方法也被称为”一对余”方法。
image.png
现在我们有一个训练集,好比上图表示的有3个类别,我们用三角形表示 week3 - 图163,方框表示week3 - 图164,叉叉表示 week3 - 图165。我们下面要做的就是使用一个训练集,将其分成3个二元分类问题。

我们先从用三角形代表的类别1开始,实际上我们可以创建一个,新的”伪”训练集,类型2和类型3定为负类,类型1设定为正类,我们创建一个新的训练集,如下图所示的那样,我们要拟合出一个合适的分类器。
image.png
这里的三角形是正样本,而圆形代表负样本。可以这样想,设置三角形的值为1,圆形的值为0,下面我们来训练一个标准的逻辑回归分类器,这样我们就得到一个正边界。

为了能实现这样的转变,我们将多个类中的一个类标记为正向类(week3 - 图167),然后将其他所有类都标记为负向类,这个模型记作week3 - 图168%7D%5Cleft(%20x%20%5Cright)#card=math&code=h%5Ctheta%5E%7B%5Cleft%28%201%20%5Cright%29%7D%5Cleft%28%20x%20%5Cright%29&id=Ryb2J)。接着,类似地第我们选择另一个类标记为正向类(week3 - 图169),再将其它类都标记为负向类,将这个模型记作 ![](https://g.yuque.com/gr/latex?h%5Ctheta%5E%7B%5Cleft(%202%20%5Cright)%7D%5Cleft(%20x%20%5Cright)#card=math&code=h%5Ctheta%5E%7B%5Cleft%28%202%20%5Cright%29%7D%5Cleft%28%20x%20%5Cright%29&id=ezK85),依此类推。
最后我们得到一系列的模型简记为: ![](https://g.yuque.com/gr/latex?h
%5Ctheta%5E%7B%5Cleft(%20i%20%5Cright)%7D%5Cleft(%20x%20%5Cright)%3Dp%5Cleft(%20y%3Di%7Cx%3B%5Ctheta%20%20%5Cright)#card=math&code=h_%5Ctheta%5E%7B%5Cleft%28%20i%20%5Cright%29%7D%5Cleft%28%20x%20%5Cright%29%3Dp%5Cleft%28%20y%3Di%7Cx%3B%5Ctheta%20%20%5Cright%29&id=r09xr)其中:week3 - 图170#card=math&code=i%3D%5Cleft%28%201%2C2%2C3….k%20%5Cright%29&id=ylDbL)
image.png
最后,在我们需要做预测时,我们将所有的分类机都运行一遍,然后对每一个输入变量,都选择最高可能性的输出变量。

总之,我们已经把要做的做完了,现在要做的就是训练这个逻辑回归分类器:week3 - 图172%7D%5Cleft(%20x%20%5Cright)#card=math&code=h%5Ctheta%5E%7B%5Cleft%28%20i%20%5Cright%29%7D%5Cleft%28%20x%20%5Cright%29&id=MaMU3), 其中 week3 - 图173 对应每一个可能的 week3 - 图174,最后,为了做出预测,我们给出输入一个新的 week3 - 图175 值,用这个做预测。我们要做的就是在我们三个分类器里面输入 week3 - 图176,然后我们选择一个让 ![](https://g.yuque.com/gr/latex?h%5Ctheta%5E%7B%5Cleft(%20i%20%5Cright)%7D%5Cleft(%20x%20%5Cright)#card=math&code=h%5Ctheta%5E%7B%5Cleft%28%20i%20%5Cright%29%7D%5Cleft%28%20x%20%5Cright%29&id=FZFwZ) 最大的week3 - 图177,即![](https://cdn.nlark.com/yuque/__latex/2918fb8f1bfa19ba2241df37fc2f6edd.svg#card=math&code=%5Cmathop%7B%5Cmax%7D%5Climits_i%2Ch%5Ctheta%5E%7B%5Cleft%28%20i%20%5Cright%29%7D%5Cleft%28%20x%20%5Cright%29&id=rs0fI)。

你现在知道了基本的挑选分类器的方法,选择出哪一个分类器是可信度最高效果最好的,那么就可认为得到一个正确的分类,无论week3 - 图178值是多少,我们都有最高的概率值,我们预测week3 - 图179就是那个值。这就是多类别分类问题,以及一对多的方法,通过这个小方法,你现在也可以将逻辑回归分类器用在多类分类的问题上。

七、正则化(Regularization)

7.1 过拟合的问题

到现在为止,我们已经学习了几种不同的学习算法,包括线性回归和逻辑回归,它们能够有效地解决许多问题,但是当将它们应用到某些特定的机器学习应用时,会遇到过拟合(over-fitting)的问题,可能会导致它们效果很差。

在这段视频中,我将为你解释什么是过度拟合问题,并且在此之后接下来的几个视频中,我们将谈论一种称为正则化(regularization)的技术,它可以改善或者减少过度拟合问题。

如果我们有非常多的特征,我们通过学习得到的假设可能能够非常好地适应训练集(代价函数可能几乎为0),但是可能会不能推广到新的数据。

下图是一个回归问题的例子:
image.png
第一个模型是一个线性模型,欠拟合,不能很好地适应我们的训练集;第三个模型是一个四次方的模型,过于强调拟合原始数据,而丢失了算法的本质:预测新数据。我们可以看出,若给出一个新的值使之预测,它将表现的很差,是过拟合,虽然能非常好地适应我们的训练集但在新输入变量进行预测时可能会效果不好;而中间的模型似乎最合适。

分类问题中也存在这样的问题:
image.png
就以多项式理解,week3 - 图182 的次数越高,拟合的越好,但相应的预测的能力就可能变差。

问题是,如果我们发现了过拟合问题,应该如何处理?

  1. 丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一些模型选择的算法来帮忙(例如PCA
  2. 正则化。 保留所有的特征,但是减少参数的大小(magnitude)。

    7.2 代价函数

    上面的回归问题中如果我们的模型是:
    week3 - 图183%3D%7B%5Ctheta%7B0%7D%7D%2B%7B%5Ctheta%7B1%7D%7D%7Bx%7B1%7D%7D%2B%7B%5Ctheta%7B2%7D%7D%7Bx%7B2%7D%5E2%7D%2B%7B%5Ctheta%7B3%7D%7D%7Bx%7B3%7D%5E3%7D%2B%7B%5Ctheta%7B4%7D%7D%7Bx%7B4%7D%5E4%7D#card=math&code=%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%3D%7B%5Ctheta%7B0%7D%7D%2B%7B%5Ctheta%7B1%7D%7D%7Bx%7B1%7D%7D%2B%7B%5Ctheta%7B2%7D%7D%7Bx%7B2%7D%5E2%7D%2B%7B%5Ctheta%7B3%7D%7D%7Bx%7B3%7D%5E3%7D%2B%7B%5Ctheta%7B4%7D%7D%7Bx%7B4%7D%5E4%7D&id=GEoQX)
    我们可以从之前的事例中看出,正是那些高次项导致了过拟合的产生,所以如果我们能让这些高次项的系数接近于0的话,我们就能很好的拟合了。
    所以我们要做的就是在一定程度上减小这些参数week3 - 图184的值,这就是正则化的基本方法。我们决定要减少![](https://g.yuque.com/gr/latex?%7B%5Ctheta
    %7B3%7D%7D#card=math&code=%7B%5Ctheta%7B3%7D%7D&id=H3UVy)和![](https://g.yuque.com/gr/latex?%7B%5Ctheta%7B4%7D%7D#card=math&code=%7B%5Ctheta%7B4%7D%7D&id=ZfvDG)的大小,我们要做的便是修改代价函数,在其中![](https://g.yuque.com/gr/latex?%7B%5Ctheta%7B3%7D%7D#card=math&code=%7B%5Ctheta%7B3%7D%7D&id=qFZls)和![](https://g.yuque.com/gr/latex?%7B%5Ctheta%7B4%7D%7D#card=math&code=%7B%5Ctheta%7B4%7D%7D&id=LkPwT) 设置一点惩罚。这样做的话,我们在尝试最小化代价时也需要将这个惩罚纳入考虑中,并最终导致选择较小一些的![](https://g.yuque.com/gr/latex?%7B%5Ctheta%7B3%7D%7D#card=math&code=%7B%5Ctheta%7B3%7D%7D&id=GZ1wp)和![](https://g.yuque.com/gr/latex?%7B%5Ctheta%7B4%7D%7D#card=math&code=%7B%5Ctheta%7B4%7D%7D&id=pDUw8)。
    修改后的代价函数如下:![](https://g.yuque.com/gr/latex?%5Cunderset%7B%5Ctheta%20%7D%7B%5Cmathop%7B%5Cmin%20%7D%7D%5C%2C%5Cfrac%7B1%7D%7B2m%7D%5B%5Csum%5Climits
    %7Bi%3D1%7D%5E%7Bm%7D%7B%7B%7B%5Cleft(%20%7B%7Bh%7D%7B%5Ctheta%20%7D%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)-%7B%7By%7D%5E%7B(i)%7D%7D%20%5Cright)%7D%5E%7B2%7D%7D%2B1000%5Ctheta%20%7B3%7D%5E%7B2%7D%2B10000%5Ctheta%20%7B4%7D%5E%7B2%7D%5D%7D#card=math&code=%5Cunderset%7B%5Ctheta%20%7D%7B%5Cmathop%7B%5Cmin%20%7D%7D%5C%2C%5Cfrac%7B1%7D%7B2m%7D%5B%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%7B%7B%5Cleft%28%20%7B%7Bh%7D%7B%5Ctheta%20%7D%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29-%7B%7By%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%7D%5E%7B2%7D%7D%2B1000%5Ctheta%20%7B3%7D%5E%7B2%7D%2B10000%5Ctheta%20_%7B4%7D%5E%7B2%7D%5D%7D&id=EX4ei)

通过这样的代价函数选择出的week3 - 图185week3 - 图186 对预测结果的影响就比之前要小许多。假如我们有非常多的特征,我们并不知道其中哪些特征我们要惩罚,我们将对所有的特征进行惩罚,并且让代价函数最优化的软件来选择这些惩罚的程度。这样的结果是得到了一个较为简单的能防止过拟合问题的假设:week3 - 图187%3D%5Cfrac%7B1%7D%7B2m%7D%5B%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%7B%7B(%7Bh%5Ctheta%7D(%7B%7Bx%7D%5E%7B(i)%7D%7D)-%7B%7By%7D%5E%7B(i)%7D%7D)%7D%5E%7B2%7D%7D%2B%5Clambda%20%5Csum%5Climits%7Bj%3D1%7D%5E%7Bn%7D%7B%5Ctheta%7Bj%7D%5E%7B2%7D%7D%5D%7D#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29%3D%5Cfrac%7B1%7D%7B2m%7D%5B%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%7B%7B%28%7Bh%5Ctheta%7D%28%7B%7Bx%7D%5E%7B%28i%29%7D%7D%29-%7B%7By%7D%5E%7B%28i%29%7D%7D%29%7D%5E%7B2%7D%7D%2B%5Clambda%20%5Csum%5Climits%7Bj%3D1%7D%5E%7Bn%7D%7B%5Ctheta%7Bj%7D%5E%7B2%7D%7D%5D%7D&id=V3x9c)

其中week3 - 图188week3 - 图189week3 - 图190 进行惩罚。经过正则化处理的模型与原模型的可能对比如下图所示:
image.png
如果选择的正则化参数week3 - 图192 过大,则会把所有的参数都最小化了,导致模型变成 week3 - 图193%3D%7B%5Ctheta%7B0%7D%7D#card=math&code=%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%3D%7B%5Ctheta%7B0%7D%7D&id=AF8Gk),也就是上图中红色直线所示的情况,造成欠拟合。
那为什么增加的一项![](https://g.yuque.com/gr/latex?%5Clambda%20%3D%5Csum%5Climits
%7Bj%3D1%7D%5E%7Bn%7D%7B%5Cthetaj%5E%7B2%7D%7D#card=math&code=%5Clambda%20%3D%5Csum%5Climits%7Bj%3D1%7D%5E%7Bn%7D%7B%5Cthetaj%5E%7B2%7D%7D&id=f7uje) 可以使week3 - 图194的值减小呢?
因为如果我们令 week3 - 图195 的值很大的话,为了使Cost Function 尽可能的小,所有的week3 - 图196的值(不包括![](https://g.yuque.com/gr/latex?%7B%5Ctheta
%7B0%7D%7D#card=math&code=%7B%5Ctheta%7B0%7D%7D&id=WE03R))都会在一定程度上减小。
但若week3 - 图197 的值太大了,那么week3 - 图198 (不包括![](https://cdn.nlark.com/yuque/__latex/1336611d82fdcb30ed8bc21f6fa5a2cf.svg#card=math&code=%7B%5Ctheta
%7B0%7D%7D&id=mdOBA))都会趋近于0,这样我们所得到的只能是一条平行于week3 - 图199轴的直线。
所以对于正则化,我们要取一个合理的 week3 - 图200 的值,这样才能更好的应用正则化。
回顾一下代价函数,为了使用正则化,让我们把这些概念应用到到线性回归和逻辑回归中去,那么我们就可以让他们避免过度拟合了。

7.3 正则化线性回归

对于线性回归的求解,我们之前推导了两种学习算法:一种基于梯度下降,一种基于正规方程。

正则化线性回归的代价函数为:

week3 - 图201%3D%5Cfrac%7B1%7D%7B2m%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B(%7B%7B(%7Bh%5Ctheta%7D(%7B%7Bx%7D%5E%7B(i)%7D%7D)-%7B%7By%7D%5E%7B(i)%7D%7D)%7D%5E%7B2%7D%7D%2B%5Clambda%20%5Csum%5Climits%7Bj%3D1%7D%5E%7Bn%7D%7B%5Ctheta%20%7Bj%7D%5E%7B2%7D%7D)%5D%7D#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29%3D%5Cfrac%7B1%7D%7B2m%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B%28%7B%7B%28%7Bh%5Ctheta%7D%28%7B%7Bx%7D%5E%7B%28i%29%7D%7D%29-%7B%7By%7D%5E%7B%28i%29%7D%7D%29%7D%5E%7B2%7D%7D%2B%5Clambda%20%5Csum%5Climits%7Bj%3D1%7D%5E%7Bn%7D%7B%5Ctheta%20%7Bj%7D%5E%7B2%7D%7D%29%5D%7D&id=oJkue)

如果我们要使用梯度下降法令这个代价函数最小化,因为我们未对week3 - 图202进行正则化,所以梯度下降算法将分两种情形:

week3 - 图203 week3 - 图204 week3 - 图205{

  1. ![](https://g.yuque.com/gr/latex?%7B%5Ctheta_0%7D%3A%3D%7B%5Ctheta_0%7D-a%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits_%7Bi%3D1%7D%5E%7Bm%7D%7B((%7Bh_%5Ctheta%7D(%7B%7Bx%7D%5E%7B(i)%7D%7D)-%7B%7By%7D%5E%7B(i)%7D%7D)x_%7B0%7D%5E%7B(i)%7D%7D)#card=math&code=%7B%5Ctheta_0%7D%3A%3D%7B%5Ctheta_0%7D-a%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits_%7Bi%3D1%7D%5E%7Bm%7D%7B%28%28%7Bh_%5Ctheta%7D%28%7B%7Bx%7D%5E%7B%28i%29%7D%7D%29-%7B%7By%7D%5E%7B%28i%29%7D%7D%29x_%7B0%7D%5E%7B%28i%29%7D%7D%29&id=uygW1)
  2. ![](https://g.yuque.com/gr/latex?%7B%5Ctheta_j%7D%3A%3D%7B%5Ctheta_j%7D-a%5B%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits_%7Bi%3D1%7D%5E%7Bm%7D%7B((%7Bh_%5Ctheta%7D(%7B%7Bx%7D%5E%7B(i)%7D%7D)-%7B%7By%7D%5E%7B(i)%7D%7D)x_%7Bj%7D%5E%7B%5Cleft(%20i%20%5Cright)%7D%7D%2B%5Cfrac%7B%5Clambda%20%7D%7Bm%7D%7B%5Ctheta_j%7D%5D#card=math&code=%7B%5Ctheta_j%7D%3A%3D%7B%5Ctheta_j%7D-a%5B%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits_%7Bi%3D1%7D%5E%7Bm%7D%7B%28%28%7Bh_%5Ctheta%7D%28%7B%7Bx%7D%5E%7B%28i%29%7D%7D%29-%7B%7By%7D%5E%7B%28i%29%7D%7D%29x_%7Bj%7D%5E%7B%5Cleft%28%20i%20%5Cright%29%7D%7D%2B%5Cfrac%7B%5Clambda%20%7D%7Bm%7D%7B%5Ctheta_j%7D%5D&id=XeCyo)
  3. ![](https://g.yuque.com/gr/latex?for#card=math&code=for&id=mg2UN) ![](https://g.yuque.com/gr/latex?j%3D1%2C2%2C...n#card=math&code=j%3D1%2C2%2C...n&id=NjEVY)
  4. }

对上面的算法中week3 - 图206时的更新式子进行调整可得:

week3 - 图207-a%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B(%7Bh%5Ctheta%7D(%7B%7Bx%7D%5E%7B(i)%7D%7D)-%7B%7By%7D%5E%7B(i)%7D%7D)x%7Bj%7D%5E%7B%5Cleft(%20i%20%5Cright)%7D%7D%E2%80%8B#card=math&code=%7B%5Ctheta_j%7D%3A%3D%7B%5Ctheta_j%7D%281-a%5Cfrac%7B%5Clambda%20%7D%7Bm%7D%29-a%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%28%7Bh%5Ctheta%7D%28%7B%7Bx%7D%5E%7B%28i%29%7D%7D%29-%7B%7By%7D%5E%7B%28i%29%7D%7D%29x%7Bj%7D%5E%7B%5Cleft%28%20i%20%5Cright%29%7D%7D%E2%80%8B&id=Mr9KV)
可以看出,正则化线性回归的梯度下降算法的变化在于,每次都在原有算法更新规则的基础上令week3 - 图208值减少了一个额外的值。

我们同样也可以利用正规方程来求解正则化线性回归模型,方法如下所示:
image.png
图中的矩阵尺寸为 week3 - 图210*(n%2B1)#card=math&code=%28n%2B1%29%2A%28n%2B1%29&id=Dee1c)。

7.4 正则化的逻辑回归模型

针对逻辑回归问题,我们在之前的课程已经学习过两种优化算法:我们首先学习了使用梯度下降法来优化代价函数week3 - 图211#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=gnmKz),接下来学习了更高级的优化算法,这些高级优化算法需要你自己设计代价函数week3 - 图212#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29&id=rkoGJ)。
image.png
自己计算导数同样对于逻辑回归,我们也给代价函数增加一个正则化的表达式,得到代价函数:

week3 - 图214%3D%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B-%7B%7By%7D%5E%7B(i)%7D%7D%5Clog%20%5Cleft(%20%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%20%5Cright)-%5Cleft(%201-%7B%7By%7D%5E%7B(i)%7D%7D%20%5Cright)%5Clog%20%5Cleft(%201-%7Bh%5Ctheta%7D%5Cleft(%20%7B%7Bx%7D%5E%7B(i)%7D%7D%20%5Cright)%20%5Cright)%5D%7D%2B%5Cfrac%7B%5Clambda%20%7D%7B2m%7D%5Csum%5Climits%7Bj%3D1%7D%5E%7Bn%7D%7B%5Ctheta%20%7Bj%7D%5E%7B2%7D%7D#card=math&code=J%5Cleft%28%20%5Ctheta%20%20%5Cright%29%3D%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits%7Bi%3D1%7D%5E%7Bm%7D%7B%5B-%7B%7By%7D%5E%7B%28i%29%7D%7D%5Clog%20%5Cleft%28%20%7Bh%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%20%5Cright%29-%5Cleft%28%201-%7B%7By%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%5Clog%20%5Cleft%28%201-%7Bh%5Ctheta%7D%5Cleft%28%20%7B%7Bx%7D%5E%7B%28i%29%7D%7D%20%5Cright%29%20%5Cright%29%5D%7D%2B%5Cfrac%7B%5Clambda%20%7D%7B2m%7D%5Csum%5Climits%7Bj%3D1%7D%5E%7Bn%7D%7B%5Ctheta%20%7Bj%7D%5E%7B2%7D%7D&id=FAYMf)

Python代码:

  1. import numpy as np
  2. def costReg(theta, X, y, learningRate):
  3. theta = np.matrix(theta)
  4. X = np.matrix(X)
  5. y = np.matrix(y)
  6. first = np.multiply(-y, np.log(sigmoid(X*theta.T)))
  7. second = np.multiply((1 - y), np.log(1 - sigmoid(X*theta.T)))
  8. reg = (learningRate / (2 * len(X))* np.sum(np.power(theta[:,1:theta.shape[1]],2))
  9. return np.sum(first - second) / (len(X)) + reg

要最小化该代价函数,通过求导,得出梯度下降算法为:

week3 - 图215 week3 - 图216 week3 - 图217{

  1. ![](https://g.yuque.com/gr/latex?%7B%5Ctheta_0%7D%3A%3D%7B%5Ctheta_0%7D-a%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits_%7Bi%3D1%7D%5E%7Bm%7D%7B((%7Bh_%5Ctheta%7D(%7B%7Bx%7D%5E%7B(i)%7D%7D)-%7B%7By%7D%5E%7B(i)%7D%7D)x_%7B0%7D%5E%7B(i)%7D%7D)#card=math&code=%7B%5Ctheta_0%7D%3A%3D%7B%5Ctheta_0%7D-a%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits_%7Bi%3D1%7D%5E%7Bm%7D%7B%28%28%7Bh_%5Ctheta%7D%28%7B%7Bx%7D%5E%7B%28i%29%7D%7D%29-%7B%7By%7D%5E%7B%28i%29%7D%7D%29x_%7B0%7D%5E%7B%28i%29%7D%7D%29&id=LqRnd)
  2. ![](https://g.yuque.com/gr/latex?%7B%5Ctheta_j%7D%3A%3D%7B%5Ctheta_j%7D-a%5B%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits_%7Bi%3D1%7D%5E%7Bm%7D%7B(%7Bh_%5Ctheta%7D(%7B%7Bx%7D%5E%7B(i)%7D%7D)-%7B%7By%7D%5E%7B(i)%7D%7D)x_%7Bj%7D%5E%7B%5Cleft(%20i%20%5Cright)%7D%7D%2B%5Cfrac%7B%5Clambda%20%7D%7Bm%7D%7B%5Ctheta_j%7D%5D#card=math&code=%7B%5Ctheta_j%7D%3A%3D%7B%5Ctheta_j%7D-a%5B%5Cfrac%7B1%7D%7Bm%7D%5Csum%5Climits_%7Bi%3D1%7D%5E%7Bm%7D%7B%28%7Bh_%5Ctheta%7D%28%7B%7Bx%7D%5E%7B%28i%29%7D%7D%29-%7B%7By%7D%5E%7B%28i%29%7D%7D%29x_%7Bj%7D%5E%7B%5Cleft%28%20i%20%5Cright%29%7D%7D%2B%5Cfrac%7B%5Clambda%20%7D%7Bm%7D%7B%5Ctheta_j%7D%5D&id=vIp4M)
  3. ![](https://g.yuque.com/gr/latex?for#card=math&code=for&id=fI1Y5) ![](https://g.yuque.com/gr/latex?j%3D1%2C2%2C...n#card=math&code=j%3D1%2C2%2C...n&id=SYYMV)
  4. }

注:看上去同线性回归一样,但是知道 week3 - 图218%3Dg%5Cleft(%20%7B%5Ctheta%5ET%7DX%20%5Cright)%E2%80%8B#card=math&code=%7Bh%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%3Dg%5Cleft%28%20%7B%5Ctheta%5ET%7DX%20%5Cright%29%E2%80%8B&id=zB675),所以与线性回归不同。
Octave 中,我们依旧可以用 fminuc 函数来求解代价函数最小化的参数,值得注意的是参数![](https://g.yuque.com/gr/latex?%7B%5Ctheta
%7B0%7D%7D%E2%80%8B#card=math&code=%7B%5Ctheta_%7B0%7D%7D%E2%80%8B&id=w3bPG)的更新规则与其他情况不同。
注意:

  1. 虽然正则化的逻辑回归中的梯度下降和正则化的线性回归中的表达式看起来一样,但由于两者的week3 - 图219%E2%80%8B#card=math&code=%7Bh_%5Ctheta%7D%5Cleft%28%20x%20%5Cright%29%E2%80%8B&id=pHKFM)不同所以还是有很大差别。
  2. week3 - 图220不参与其中的任何一个正则化。

目前大家对机器学习算法可能还只是略懂,但是一旦你精通了线性回归、高级优化算法和正则化技术,坦率地说,你对机器学习的理解可能已经比许多工程师深入了。现在,你已经有了丰富的机器学习知识,目测比那些硅谷工程师还厉害,或者用机器学习算法来做产品。

接下来的课程中,我们将学习一个非常强大的非线性分类器,无论是线性回归问题,还是逻辑回归问题,都可以构造多项式来解决。你将逐渐发现还有更强大的非线性分类器,可以用来解决多项式回归问题。我们接下来将将学会,比现在解决问题的方法强大N倍的学习算法。