学习笔记|最大熵模型学习的IIS法

举报
darkpard 发表于 2021/11/20 22:03:44 2021/11/20
【摘要】 Logistic回归模型、最大熵模型学习归结为以似然函数为目标函数的最优化问题,通常通过迭代算法求解。从最优化的观点看,这时的目标函数具有很好的性质。它是光滑的凸函数,因此多种最优化方法适用,保证能找到全局最优解。IIS,全称improved iterative scaling,中文名改进的迭代尺度法,是适用于求解以似然函数为目标的最优化问题(如最大熵模型学习)的方法之一。已知最大熵模型为对...

Logistic回归模型、最大熵模型学习归结为以似然函数为目标函数的最优化问题,通常通过迭代算法求解。从最优化的观点看,这时的目标函数具有很好的性质。它是光滑的凸函数,因此多种最优化方法适用,保证能找到全局最优解。

IIS,全称improved iterative scaling,中文名改进的迭代尺度法,是适用于求解以似然函数为目标的最优化问题(如最大熵模型学习)的方法之一。

已知最大熵模型为

对数似然函数为

(上述结果的推导过程可参见学习笔记|最大熵模型与极大似然估计

所以,对∀x>0,有f(x)≥0,即-logx≥1-x。

因此,

将上式记为A(δ|ω)。

于是有

即A(δ|ω)是对数似然函数改变量的一个下界。

(推导依据可参见学习笔记|凸函数的定义与性质

因此

将上式记为B(δ|ω)。

于是得到

这里,B(δ|ω)是对数似然函数改变量的一个新的(相对不紧的)下界。

IIS算法:

(2)对每一i∈{1,2,...,n}

的解,这里,

(3)如果不是所有ω都收敛,重复步(2)。

参考文献

【1】统计学习方法(第2版),李航著,清华大学出版社

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。