学习笔记|EM算法的导出及其在无监督学习中的应用

举报
darkpard 发表于 2021/12/21 18:59:07 2021/12/21
【摘要】 1. EM算法的导出为什么EM算法能近似实现对观测数据的极大似然估计呢?下面通过近似求解观测数据的对数似然函数的极大化问题来导出EM算法,由此可以清楚地看出EM算法的作用。我们面对一个含有隐变量的概率模型,目标是极大化观测数据(不完全数据)Y关于参数θ的对数似然函数,即极大化注意到这一极大化的主要困难是含有未观测数据并有包含和(或积分)的对数。利用Jensen不等式得到其下界:令则上式等价于...

1. EM算法的导出

为什么EM算法能近似实现对观测数据的极大似然估计呢?下面通过近似求解观测数据的对数似然函数的极大化问题来导出EM算法,由此可以清楚地看出EM算法的作用。

我们面对一个含有隐变量的概率模型,目标是极大化观测数据(不完全数据)Y关于参数θ的对数似然函数,即极大化

注意到这一极大化的主要困难是含有未观测数据并有包含和(或积分)的对数。

利用Jensen不等式得到其下界:

上式等价于EM算法的一次迭代,即求Q函数及其极大化(可参见学习笔记|EM算法介绍)。EM算法是通过不断求解下界的极大化逼近求解对数似然函数极大化的算法。

图片

2. EM算法在无监督学习中的应用

参考文献

1.统计学习方法(第2版),李航著,清华大学出版社

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。