学习笔记|EM算法介绍

举报
darkpard 发表于 2021/12/20 20:59:42 2021/12/20
【摘要】 EM算法是一种迭代算法,1977年由Dempster等人总结提出,用于含有隐变量的概率模型参数的极大似然估计,或极大后验概率估计。EM算法的每次迭代由两步组成:E步,求期望;M步,求极大。所以这一算法称为期望极大算法,简称EM算法。概率模型有时既含有观测变量,又含有隐含变量或潜在变量。如果概率模型的变量都是观测变量,那么给定数据,可以直接用极大似然估计法(可参见学习笔记|似然函数与极大似然估...

EM算法是一种迭代算法,1977年由Dempster等人总结提出,用于含有隐变量的概率模型参数的极大似然估计,或极大后验概率估计。EM算法的每次迭代由两步组成:E步,求期望;M步,求极大。所以这一算法称为期望极大算法,简称EM算法。

概率模型有时既含有观测变量,又含有隐含变量或潜在变量。如果概率模型的变量都是观测变量,那么给定数据,可以直接用极大似然估计法(可参见学习笔记|似然函数与极大似然估计)或贝叶斯估计法估计模型参数(可参见学习笔记|朴素贝叶斯法中的贝叶斯估计)。但是,当模型含有隐变量时,就不能简单地使用这些估计方法。EM算法就是含有隐变量的概率模型参数的极大似然估计法,或极大后验概率估计法。

一般地,用Y表示观测随机变量的数据,Z表示隐随机变量的数据。Y和Z连在一直称为完全数据,观测数据Y又称为不完全数据。假设给定观测数据Y,其概率分布是P(Y|θ),其中θ是需要估计的模型参数,那么不完全数据Y的似然函数是P(Y|θ),对数似然函数L(θ)=logP(Y|θ);假设Y和Z的联合概率分布是P(Y,Z|θ),那么完全数据的对数似然函数是logP(Y,Z|θ)。

EM算法:

输入:观测变量数据Y,隐变量数据Z,联合分布P(Y,Z|θ),条件分布P(Z|Y,θ);

输出:模型参数θ。

(4)重复第(2)步和第(3)步,直到收敛。

下面关于EM算法作几点说明:

步骤(1) 参数的初值可以任意选择,但需要EM算法对初值是敏感的。

则迭代停止。

参考文献

1.统计学习方法(第2版),李航著,清华大学出版社

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。