EM聚类算法
EM聚类
EM算法也称期望最大化(Expectation-Maximum,简称EM)算法它是一个基础算法,是很多机器学习领域算法的基础,比如隐式马尔科夫算法(HMM), LDA主题模型的变分推断等等。
EM算法解决这个的思路是使用启发式的迭代方法,既然我们无法直接求出模型分布参数,那么我们可以先猜想隐含数据(EM算法的E步),接着基于观察数据和猜测的隐含数据一起来极大化对数似然,求解我们的模型参数(EM算法的M步)。由于我们之前的隐藏数据是猜测的,所以此时得到的模型参数一般还不是我们想要的结果。不过没关系,我们基于当前得到的模型参数,继续猜测隐含数据(EM算法的E步),然后继续极大化对数似然,求解我们的模型参数(EM算法的M步)。以此类推,不断的迭代下去,直到模型分布参数基本无变化,算法收敛,找到合适的模型参数。
最大似然估计
最大似然估计是什么呢?它指的就是一件事情已经发生了,然后反推更有可能是什么因素造成的。用一男一女比较身高为例,假设有一个人比另一个人高,反推他可能是男性(因为相同年龄下男性的平均身高高于女性)。最大似然估计是一种通过已知结果,估计参数的方法。
EM 算法是一种求解最大似然估计的方法,通过观测样本,来找出样本的模型参数。
举个例子来描述EM的工作原理
举了例子:我们先看一个简单的场景:假设你炒了一份菜,如何平均分到两个盘子中?
正常来说我们不会使用称来称重&#x
文章来源: maoli.blog.csdn.net,作者:刘润森!,版权归原作者所有,如需转载,请联系作者。
原文链接:maoli.blog.csdn.net/article/details/91369080
- 点赞
- 收藏
- 关注作者
评论(0)