• 1.摘要
  • 2.基本信息
  • 3.概述
  • 4.步骤

广义向前向后算法

训练HMM的标准算法是向前-向后算法(forward-backward algorithm)或者叫做鲍姆一韦尔奇算法(Baum—Welch algorithm),这是期望最大化算法(Expectation—Maximization algorithm,简称EM算法)的一种特殊情形。这个算法将帮助我们训练HMM的转移概率A和发射概率B。

基本信息

  • 中文名

    广义向前向后算法

  • 外文名

    forward-backward algorithm

  • 又称

    鲍姆-韦尔奇算法

  • 定义

    训练HMM的转移概率和发射概率

  • 属于

    EM算法的一种特殊情形

  • 应用学科

    计算机原理

概述

EM算法可用于含有隐变量的统计模型的参数最大似然估计,其基本思想是:初始时随机地给模型的参数赋值(该赋值必须遵守模型对参数的限制,如从一状态出发的所有概率的总和是1),得到模型λ0,由λ0我们可以得到模型中隐变量的期望值。以隐马尔可夫模型为例,我们可以从λ0得到从某状态转移到另一个状态的期望次数。以期望次数来代替实际的次数,我们便可以得到模型参数的新的估计,由此可以得到模型λ1,从λ1我们可以得到模型薪的期望值,由此又可重新估计模型参数,循环以上的过程,模型参数将收敛于最大似然估计。向前向后算法是EM算法在HMM算法中的具体应用。

步骤

步骤如图: