机器学习框架 - 图1

    概念

    分类(classification): 离散

    回归(regression): 连续,输出是数值

    生成(generation)

    感知机(PLA)

    二类分类 损失函数:误分点到超平面的距离 线性 学习算法:随机梯度下降

    线性回归

    y = wx + b

    回归 损失函数:均方差MSE 线性 最小二乘法求损失函数,梯度下降法优化

    广义线性回归

    y = g(wx + b)

    logistic回归(广义线性回归的特例)

    y = sigmoid(wx + b)

    多类分类 输出的对数几率是输入x的线性函数 极大似然法求损失函数,梯度下降法优化

    logistic函数=sigmoid函数

    logit函数(logit odds,对数几率):logit(p)=log p/(1-p)

    吴恩达version,损失函数:

    机器学习框架 - 图2

    最大熵模型

    多类分类

    学习概率模型时,熵最大的模型是最好的模型,不确定的部分都是等可能的

    k近邻法

    多类分类、回归 无显式学习过程

    朴素贝叶斯法

    多类分类

    支持向量机(SVM)

    y = sign(wx + b)

    选择距离正样本和负样本最远的超平面作为分类超平面

    二类分类 损失函数:合页损失

    决策树

    算法流程:特征选择、决策树的生成、决策树的剪枝

    常见算法:ID3、C4.5、CART

    特征选择:根据信息增益(信息增益比)

    决策树的生成

    决策树的剪枝

    信息熵:取值范围[0,1]

    随机森林

    Bootstrap抽样:有放回的均匀抽样

    Bagging算法:

    用Bootstrap抽样产生多个决策树

    多个决策树投票决定最终结果

    随机森林:

    在Bagging算法的基础上随机选取分裂属性集

    隐马尔科夫模型

    标注

    条件随机场

    标注

    神经网络