参考文献 https://blog.csdn.net/Xurui_Luo/article/details/106357545 https://blog.csdn.net/Trasper1/article/details/81878892

贝叶斯公式

贝叶斯方法的解释 - 图4
贝叶斯方法的解释 - 图5
_
贝叶斯方法的解释 - 图6

为了更有效了解贝叶斯方法,首先要对贝叶斯公式中的各项有个提前的了解。

  • 贝叶斯方法的解释 - 图7:后验概率分布 Posterior
  • 贝叶斯方法的解释 - 图8:似然概率分布 Likelihood
  • 贝叶斯方法的解释 - 图9:先验概率分布 Prior

对贝叶斯公式的直观理解就是:

通过新一波采样得到数据贝叶斯方法的解释 - 图10 ,我们可以计算出新的 贝叶斯方法的解释 - 图11 概率分布,也就是 贝叶斯方法的解释 - 图12 也称对 贝叶斯方法的解释 - 图13 的更新、纠正。通过这个概率分布,我们就可以得到贝叶斯方法的解释 - 图14 的值,计算方法就是求贝叶斯方法的解释 - 图15 这个分布下,贝叶斯方法的解释 - 图16 的均值。

贝叶斯派的基本思想 vs 频率学派基本思想

  • 在贝叶斯理论中,贝叶斯方法的解释 - 图17 是根据你的观测在不停变的。在这个过程中,每一次的观测,得到的具体数据贝叶斯方法的解释 - 图18 则视作固定的。根据观测,会不断地更新贝叶斯方法的解释 - 图19
  • 频率学派则相反。贝叶斯方法的解释 - 图20 是一直都固定的。无论你怎样进行采样,贝叶斯方法的解释 - 图21 都不会发生改变,因此想要求贝叶斯方法的解释 - 图22 就得利用极大似然估计。这个本文不作介绍。

解释

贝叶斯方法的解释 - 图23

Prior 先验——贝叶斯方法的解释 - 图24

之前的知识,我们对它刻板印象,没有基于观测的数据思考而进行的猜测。比如这里贝叶斯方法的解释 - 图25 的分布是我们先前根据经验得来的,它的概率分布就是贝叶斯方法的解释 - 图26

由于一般的机器学习中,是没有办法得到关于参数的先验信息的,所以一般无法直接利用先验来做一些事情

Likelihood 似然 ——贝叶斯方法的解释 - 图27

顾名思义,似然就是像这样,因此其表达式肯定看着像,但不是真的。像什么呢?就是你得到的这些观测数据,像是根据你的先验知识,估计而来而来的。其含义正是这个公式贝叶斯方法的解释 - 图28。它表示在给定贝叶斯方法的解释 - 图29 的情况下,贝叶斯方法的解释 - 图30 服从的概率分布。

那么既然只是像,哪里有问题呢?

结合之前所说,贝叶斯方法的解释 - 图31 是固定的,根本不会随着贝叶斯方法的解释 - 图32 的改变而发生任何变化。因此,这里仅仅只是似然,假装是贝叶斯方法的解释 - 图33 控制贝叶斯方法的解释 - 图34 的生成,假装贝叶斯方法的解释 - 图35贝叶斯方法的解释 - 图36 的分布起作用。

在许多机器学习中,用Loss值的负数来代表似然。

Posterior 后验——贝叶斯方法的解释 - 图37

在你有了观测的数据之后,得到的新参数的概率分布。正如贝叶斯的思想所言,控制事务发生概率的参数贝叶斯方法的解释 - 图38 是变化的,它会随着新的观测数据到来,不断改变。

有了它以后,可以根据概率分布求期望(均值),从而进行一些估计。

大多数机器学习中,需要对后验概率进行推测,这也是贝叶斯机器学习的目的。
**

贝叶斯分类器

贝叶斯分类器是传统机器学习模型的一种,是在概率框架下利用训练集D观测估计样本属性(feature)与分类结果之间的后验概率关系。后验概率,就是在观测过样本的属性(feature)之后对其分类情况的概率分布(比如0.3的概率是正类,0.7的概率是反类)。贝叶斯分类器直观看就是一个由在样本集D上学习到的后验概率和likelihood组成的计算公式**,在测试阶段,将输入测试样本的feature带入可以计算出各类的分类confidence(confidence即后验)**。