前言:学生时代入门机器学习的时候接触的EM算法,当时感觉这后面应该有一套数学逻辑来约束EM算法的可行性。最近偶然在知乎上拜读了史博大佬的《EM算法理解的九层境界》[1],顿时感觉自己还是局限了。重新学习思考了一段时间,对EM算法有了更深的理解。这里顺着大佬的境界路径,看自己能够探索到第几层。
EM算法理解的第一层境界:期望E和最大化M(一)
四、数学推导理解EM算法的形式
接下来我们通过严格的数学推导来理解EM算法形式式子的含义。接着上面给出的EM算法的式子:
θ(t+1)=θargmaxQ(θ∣θ(t))=θargmaxEZ∣X,θ(t)[logL(θ;X,Z)]
下面我们一步一步进行推导。
首先隐变量
Z=[z1,z2,...,zn],zi∈{0,1},分量
zi=1表示
i轮次使用的是硬币
A,分量
zi=0表示
i轮次使用的是硬币
B,一共进行了
n轮次的投币行为。那么隐变量
Z的变量空间为
{0,1}n,一共
2n个离散点组成的离散空间。于是我们有:
EZ∣X,θ(t)[logL(θ;X,Z)]=Z∈{0,1}n∑[P(Z∣X,θ(t))∗logL(θ;X,Z)]
其中,隐变量
zi之间是独立同分布的,所以我们有:
P(Z∣X,θ(t))=i=1∏nP(zi∣xi,θ(t))
对于每一个轮次
i而言,在给定观测变量
xi∈[0,δ]和硬币的概率参数
θ(t)(即
θA(t)、
θB(t)和
θC(t))之后,我们有:
P(zi∣xi,θ(t))=P(xi∣θ(t))P(zi,xi∣θ(t))=∑zi∈0,1P(zi,xi∣θ(t))P(zi,xi∣θ(t))
其中,给定
θ(t)之后,
(zi,xi)的联合概率分布可以直接给出来,
P(zi=1,xi∣θ(t))为第
i轮次是硬币
A且抛出了
xi个正面的概率:
P(zi=1,xi∣θ(t))=P(zi=1∣θ(t))∗P(xi∣zi=1,θ(t))=P(zi=1∣θ(t))∗(θA(t))xi∗(1−θA(t))δ−xi=θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi
P(zi=0,xi,θ(t))为第
i轮次是硬币
B且抛出了
xi个正面的概率:
P(zi=0,xi∣θ(t))=P(zi=0∣θ(t))∗P(xi∣zi=0,θ(t))=P(zi=0∣θ(t))∗(θB(t))xi∗(1−θB(t))δ−xi=(1−θC(t))∗(θB(t))xi∗(1−θB(t))δ−xi
接下来,给定
xi,θ(t)情况下轮次
i是硬币A的概率
P(zi=1∣xi,θ(t))和是硬币B的概率
P(zi=0∣xi,θ(t))如下:
P(zi=1∣xi,θ(t))=P(zi=1,xi∣θ(t))+P(zi=0,xi∣θ(t))P(zi=1,xi∣θ(t))=θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi+(1−θC(t))∗(θB(t))xi∗(1−θB(t))δ−xiθC(t)∗(θA(t))xi∗(1−θA(t))δ−xi
P(zi=0∣xi,θ(t))=P(zi=1,xi∣θ(t))+P(zi=0,xi∣θ(t))P(zi=0,xi∣θ(t))=θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi+(1−θC(t))∗(θB(t))xi∗(1−θB(t))δ−xi(1−θC(t))∗(θB(t))xi∗(1−θB(t))δ−xi
两个式子的分母是一样的,我们记
ηi=θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi+(1−θC(t))∗(θB(t))xi∗(1−θB(t))δ−xi
则有:
P(zi=0∣xi,θ(t))=ηi1θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi
P(zi=1∣xi,θ(t))=ηi1(1−θC(t))∗(θB(t))xi∗(1−θB(t))δ−xi
变量
(Z∣X,θ(t))的分布我们表示出来了,下一步来求联合分布
(θ;X,Z)的log-likelyhood:
logL(θ;X,Z)。
对于每一轮次的likelyhood,我们有:
L(θ;xi,zi)=P(xi∣zi,θ)∗P(zi∣θ)∗P(θ)=(zi∗θA+(1−zi)θB)xi∗(1−zi∗θA−(1−zi)θB)(δ−xi)∗θCzi∗(1−θC)1−zi∗1
同样,由于每个轮次都是独立同分布的,我们有:
L(θ;X,Z)=i=1∏nL(θ;xi,zi)=i=1∏n(zi∗θA+(1−zi)θB)xi∗(1−zi∗θA−(1−zi)θB)(δ−xi)∗θCzi∗(1−θC)1−zi
log一下我们有:
logL(θ;X,Z)=logi=1∏n(zi∗θA+(1−zi)θB)xi∗(1−zi∗θA−(1−zi)θB)(δ−xi)∗θCzi∗(1−θC)1−zi=i=1∑n[xi∗log(zi∗θA+(1−zi)θB)+(δ−xi)∗log(1−zi∗θA−(1−zi)θB)+zi∗logθC+(1−zi)∗log(1−θC)]
OK,到这一步
logL(θ;X,Z)和
P(Z∣X,θ(t))我们都表示出来了,接下来就是对他们求个期望:
EZ∣X,θ(t)[logL(θ;X,Z)]=Z∈{0,1}n∑[P(Z∣X,θ(t))∗logL(θ;X,Z)]=Z∈{0,1}n∑i=1∏nP(zi∣xi,θ(t))∗j=1∑nl(xj,zj,θ)
注意,这里我们为了防止变量重复,把
logL(θ;X,Z)中的遍历变量
i替换为了
j。其中
l(xj,zj,Q)=xj∗log(zj∗θA+(1−zj)θB)+(δ−xj)∗log(1−zj∗θA−(1−zj)θB)+zj∗logθC+(1−zj)∗log(1−θC)
P(zi=0∣xi,θ(t))=ηi1θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi
P(zi=1∣xi,θ(t))=ηi1(1−θC(t))∗(θB(t))xi∗(1−θB(t))δ−xi
这里得到的
EZ∣X,θ(t)[logL(θ;X,Z)]式子开起来很吓人,直接使用期望的性质可以将其化简为简单的形式,这里我们不使用独立分布期望的性质,直接使用一些数学技巧来进行化简。
对于所有的变量空间
Z∈{0,1}n,我们将其拆分一下,
z1和
z2,z3,...,zn分别表示为
z1和
Z2n,然后将其分为
z1=1和
z1=0两个部分。那么上面式子可以分解为:
EZ∣X,θ(t)[logL(θ;X,Z)]=z1=1,Z2n∈{0,1}n−1∑i=1∏nP(zi∣xi,θ(t))∗j=1∑nl(xj,zj,θ)+z1=0,Z2n∈{0,1}n−1∑i=1∏nP(zi∣xi,θ(t))∗j=1∑nl(xj,zj,θ)=z1=1,Z2n∈{0,1}n−1∑i=2∏nP(zi∣xi,θ(t))∗P(z1=1∣x1,θ(t))∗[l(x1,z1=1,θ)+j=2∑nl(xj,zj,θ)]+z1=0,Z2n∈{0,1}n−1∑i=2∏nP(zi∣xi,θ(t))∗P(z0=1∣x1,θ(t))∗[l(x1,z1=0,θ)+j=2∑nl(xj,zj,θ)]=P(z1=1∣x1,θ(t))∗l(x1,z1=1,θ)∗Z2n∈{0,1}n−1∑i=2∏nP(zi∣xi,θ(t))+P(z1=1∣x1,θ(t))∗Z2n∈{0,1}n−1∑i=2∏nP(zi∣xi,θ(t))∗j=2∑nl(xj,zj,θ)+P(z1=0∣x1,θ(t))∗l(x1,z1=0,θ)∗Z2n∈{0,1}n−1∑i=2∏nP(zi∣xi,θ(t))+P(z1=0∣x1,θ(t))∗Z2n∈{0,1}n−1∑i=2∏nP(zi∣xi,θ(t))∗j=2∑nl(xj,zj,θ)
由概率分布之和为1的性质,我们有:
P(z1=1∣x1,θ(t))+P(z1=0∣x1,θ(t))=1
Z2n∈{0,1}n−1∑i=2∏nP(zi∣xi,θ(t))=Z2n∈{0,1}n−1∑P(Z2n∣X2n,θ(t))=1
所以我们有:
EZ∣X,θ(t)[logL(θ;X,Z)]=P(z1=1∣x1,θ(t))∗l(x1,z1=1,θ)+P(z1=0∣x1,θ(t))∗l(x1,z1=0,θ)+Z2n∈{0,1}n−1∑i=2∏nP(zi∣xi,θ(t))∗j=2∑nl(xj,zj,θ)=P(z1=1∣x1,θ(t))∗l(x1,z1=1,θ)+P(z1=0∣x1,θ(t))∗l(x1,z1=0,θ)+P(z2=1∣x1,θ(t))∗l(x2,z2=1,θ)+P(z2=0∣x1,θ(t))∗l(x2,z2=0,θ)+Z3n∈{0,1}n−2∑i=3∏nP(zi∣xi,θ(t))∗j=3∑nl(xj,zj,θ)=......=i=1∑nP(zi=1∣xi,θ(t))∗l(xi,zi=1,θ)+i=1∑nP(zi=0∣xi,θ(t))∗l(xi,zi=0,θ)
最终我们求得了需要maximum的式子:
EZ∣X,θ(t)[logL(θ;X,Z)]=i=1∑nP(zi=1∣xi,θ(t))∗l(xi,zi=1,Q)+i=1∑nP(zi=0∣xi,θ(t))∗l(xi,zi=0,θ)
其中
l(xj,zj,θ)=xj∗log(zj∗θA+(1−zj)θB)+(δ−xj)∗log(1−zj∗θA−(1−zj)θB)+zj∗logθC+(1−zj)∗log(1−θC)
P(zi=0∣xi,θ(t))=ηi1θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi
P(zi=1∣xi,θ(t))=ηi1(1−θC(t))∗(θB(t))xi∗(1−θB(t))δ−xi
把上述式子带入,有:
EZ∣X,θ(t)[logL(θ;X,Z)]=i=1∑nP(zi=1∣xi,θ(t))∗l(xi,zi=1,θ)+i=1∑nP(zi=0∣xi,θ(t))∗l(xi,zi=0,θ)=i=1∑nηi1θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi∗[xi∗logθA+(δ−xi)∗log(1−θA)+logθC]+i=1∑nηi1(1−θC(t))∗(θB(t))xi∗(1−θB(t))δ−xi∗[xi∗logθB+(δ−xi)∗log(1−θB)+log(1−θC)]
其中,
ηi=θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi+(1−θC(t))∗(θB(t))xi∗(1−θB(t))δ−xi
可以看到这个式子中,我们已经把所有隐变量
Z积分消除掉了,到这里我们就可以进行求解了。我们需要求解
θ(t+1)=θargmaxQ(θ∣θ(t))=θargmaxEZ∣X,θ(t)[logL(θ;X,Z)]=θargmaxi=1∑nηi1θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi∗[xi∗logθA+(δ−xi)∗log(1−θA)+logθC]+i=1∑nηi1(1−θC(t))∗(θB(t))xi∗(1−θB(t))δ−xi∗[xi∗logθB+(δ−xi)∗log(1−θB)+log(1−θC)]
其中,
(θA,θB)是需要求解的变量,其他
(θA(t),θC(t),θC(t)),ηi都是常量。这里我们联立偏导方程进行求解:
{∂θA∂Q=0∂θB∂Q=0∂θC∂Q=0
一个一个来:
∂θA∂Q=i=1∑nηi1θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi∗[xi∗θA1−(δ−xi)∗(1−θA)1]=i=1∑nηi1θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi∗[xi∗θA1−(δ−xi)∗(1−θA)1]=i=1∑nηi1θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi∗[θA∗(1−θA)xi−δ∗θA]
令
∂θA∂Q=0,我们有:
θA(t+1)=∑i=1nηi1θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi∗δ∑i=1nηi1θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi∗xi
同理我们有:
θB(t+1)=∑i=1nηi1(1−θC(t))∗(θB(t))xi∗(1−θB(t))δ−xi∗δ∑i=1nηi1(1−θC(t))∗(θB(t))xi∗(1−θB(t))δ−xi∗xi
θC(t+1)=∑i=1nηi1[θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi+(1−θC(t))∗(θB(t))xi∗(1−θB(t))δ−xi]∑i=1nηi1θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi=n1i=1∑nηi1θC(t)∗(θA(t))xi∗(1−θA(t))δ−xi
对比下前面直觉的结果,形式上非常接近:
θ^A(t+1)=∑i=1nδ∗P(zi=1∣∗)∑i=1nxi∗P(zi=1∣∗)
θ^B(t+1)=∑i=1nδ∗P(zi=0∣∗)∑i=1nxi∗P(zi=0∣∗)
θ^C(t+1)=∑i=1n[P(zi=0∣∗)+P(zi=1∣∗)]∑i=1nP(zi=1∣∗)=n1i=1∑nP(zi=1∣∗)
结束语
到此为止是为EM算法的第一层境界,我们通过直觉和推导两条线从形式上理解了EM算法是什么,解决了What的问题。接下来我们需要解决的是Why的问题,即EM算法的必要性和可行性的问题,这就是EM算法的第二重境界的问题了:
- 必要性:原问题无法求解,或者求解难度很大。
- 可行性:EM算法通过迭代“可以”达到理论最优点。
References
[1] https://www.zhihu.com/question/40797593/answer/275171156
[2] Do C B, Batzoglou S. What is the expectation maximization algorithm?[J]. Nature biotechnology, 2008, 26(8): 897-899.
评论(0)