HMM
贝叶斯网络中变量间的关系:
(a)和(b)其实是一样的当X2被观测到时,X1和X3相互独立,即
(c)是共因关系,当X2未知时,X1和X3是不独立的,当X2已知,X1和X3条件独立
(d)是共果关系,当X2未知时,X1和X3条件独立,当X2已知,X1和X3是不独立的
HMM概率图模型
HMM是一个产生式模型,可以表示为HMM=(X, Y, π, A, B)。
X是观测值集合假设集合大小为D,Y是状态值集合假大小为K,π是初始时刻,状态变量的分布。
A是状态转移矩阵
B是发射矩阵
评估-求联合概率
对一个观测序列序列执行
次加法,计算量太大了,为了减小计算量可以使用动态规划。
T = 1时
T=2时
同理可得T=3时
于是得到递推公式
概率视角:
以上推导过程叫做前向算法,我们从t=1开始进行合并消除。
如果我们从最后一个时刻t=T开始合并消除,就是后向算法:我们合并yT
可以发现若给定T-2时刻状态为i则
可得递推公式:
概率视角:
推理-求状态的后验分布
定义即已知观测序列,则t时刻状态为i的概率。
后两项交换
对分母同样处理,最后得到
对同样的计算过程最终得到
学习-求参数
对一个给定观测序列,状态序列
是隐状态,求参数
由于模型带有隐变量,所以可以使用EM算法求参数。
E-step: 写出期望
期望就是完备数据的对数似然函数在y的后验分布下的期望即:
这里是第i次迭代后的参数,是已知量。
M-step:分母是一个常数故可以直接舍去
代入得:
分别对π, A, B求解
π:
约束条件为,利用拉格朗日乘子法求解得
A:
约束条件,同样利用拉格朗日乘子法求解得
B:
无向图模型
无向图模型上的概率分布可以表示为:E叫做能量函数。
参数学习:
假设x,y都是离散一维变量,可能的值均为0或1。
这里a、b、c、d就是参数取对数得
