学习笔记|感知机(二)

举报
darkpard 发表于 2021/09/30 21:43:46 2021/09/30
【摘要】 接学习笔记|感知机(一) 。6. 感知机学习算法感知机学习的具体算法包括原始形式和对偶形式。6.1. 感知机学习算法的原始形式6.1.1. 简述感知机学习算法等价于以下最优化问题的算法。给定一个训练数据集其中M为误分类点的集合。给出。随机选取一个误分类点,对ω,b进行更新:其中,η∈(0,1]是步长,又称学习率。6.1.2. 算法输入:训练数据集,其中,,i=1,2,...,N,学习率η∈(...

学习笔记|感知机(一) 

6. 感知机学习算法

感知机学习的具体算法包括原始形式和对偶形式。

6.1. 感知机学习算法的原始形式

6.1.1. 简述

感知机学习算法等价于以下最优化问题的算法。

给定一个训练数据集

其中M为误分类点的集合。

给出。

随机选取一个误分类点,对ω,b进行更新:

其中,η∈(0,1]是步长,又称学习率。

6.1.2. 算法

输入:训练数据集

,其中,i=1,2,...,N,学习率η∈(0,1];
输出:&omega,b;感知机模型f(x)=sign(ω⋅x+b)。

学习过程:

4.转至2.,直到训练集中没有误分类点。

6.1.3 算法收敛性

定理(Novikoff) 设训练数据集是线性可分的,其中,i=1,2,...,N,则
(1)存在满足条件的ω的超平面ωω将训练数据集完全正确分开;且存在γ>0,对所有i=1,2,...,N

(2)令,则感知机算法在训练数据集上的误分类次数k满足不等式

γ

所以存在

使

则第k个误分类实例的条件是

定理表明,误分类的次数k是有上界的。

6.2 感知机学习算法的对偶形式

6.2.1. 简述

6.2.2. 算法

输入:线性可分的数据集,其中,i=1,2,...,N;学习率η(0<η≤1);

输出:α,b;感知机模型f(x)=sign(α),其中α=ααα

学习过程:
(1)α←0,b←0;
(2)在训练集中选取数据
(3)如果≤0,

ααη
η

(4)转至(2)直到没有误分类数据。

对偶形式中训练实例仅以内积的形式出现。为了方便,可以预先将训练集中实例间的内积计算出来以矩阵的形式存储,这个矩阵就是所谓的Gram矩阵

参考文献

【1】统计学习方法(第2版),李航著,清华大学出版社

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。