作者小头像 Lv.5
更多个人资料
1631 成长值
0 关注
6 粉丝
+ 关注 私信

个人介绍

这个人很懒,什么都没有留下

感兴趣或擅长的领域

人工智能
个人勋章
TA还没获得勋章~
成长雷达
1590
21
0
0
20

个人资料

个人介绍

这个人很懒,什么都没有留下

感兴趣或擅长的领域

人工智能

达成规则

以上满足项可达成此勋章

  • 博客
  • 关注
  • 粉丝
  • 论坛
学习笔记|序列最小最优化算法介绍
序列最小最优化算法是支持向量机学习的主要实现方法。我们知道,支持向量机的学习问题可以形式化为求解凸二次规划问题。这样的凸二次规划问题具有全局最优解,并且有许多最优化算法可以用于这一问题的求解。但是当训练样本容量很大时,这些算法往往变得非常低效。目前人们已提出许多快速实现算法。序列最小最优化(sequential minimal optimization,SMO)算法,于1998年由Platt...
作者小头像 darkpard
1329
0
0
2021-12-10 19:39:18
999+
0
0
学习笔记|非线性支持向量分类机
利用核技巧,可以将线性分类的学习方法应用到非线性分类问题中去。将线性支持向量机扩展到非线性支持向量机,只需将线性支持向量机对偶形式中的内积换成核函数。非线性支持向量机定义: 从非线性分类训练集,通过核函数与软间隔最大化,或凸二次规划,学习得到的分类决策函数称为非线性支持向量机,K(x,z)是正定核函数。非线性支持向量机学习算法:输出:分类决策函数。(1)选取适当的核函数K(x,z)和适当的参...
作者小头像 darkpard
1437
0
0
2021-12-09 18:33:40
999+
0
0
学习笔记|常用核函数
1. 多项式核函数对应的支持向量机是一个p次多项式分类器。在此情形下,分类决策函数成为2. 高斯核函数对应的支持向量机是高斯径向基函数分类器。在此情形下,分类决策函数成为3. 字符串核函数核函数不仅可以定义在欧氏空间上,还可以定义在离散数据的集合上。比如,字符串核函数是定义在字符串集合上的核函数。字符串核函数在文本分类、信息检索、生物信息学等方面都有应用。这里,0<λ≤1是一个衰减参数,l(...
作者小头像 darkpard
1530
0
0
2021-12-08 19:48:10
999+
0
0
学习笔记|正定核
已知映射函数Φ,可以通过Φ(x)和Φ(z)的内积求得核函数K(x,z)。不用构造映射Φ(x)能否直接判断一个给定的函数k(x,z)是不是核函数?或者说,函数k(x,z)满足什么条件才能成为核函数?本节叙述正定核的充要条件。通常所说的核函数就是正定核函数。为证明此定理先介绍有关的预备知识。先定义映射(内积空间的定义可参见学习笔记|希尔伯特空间)定义运算*(3)f*g=g*f证明:(1)(2)(...
作者小头像 darkpard
1849
0
0
2021-12-07 21:02:58
999+
0
0
学习笔记|希尔伯特空间
希尔伯特空间是机器学习中的重要概念,在学习笔记|支持向量机简介、学习笔记|线性可分支持向量机介绍、学习笔记|核技巧、学习笔记|核技巧在支持向量机中的应用等笔记中都有提及。希尔伯特是欧氏空间的从n维向无限维的直接推广(欧氏空间的定义参见学习笔记|欧氏空间与向量空间)。(柯西序列及其收敛可参见学习笔记|实数域中的相关证明)参考文献1.统计学习方法(第2版),李航著,清华大学出版社2.https:...
作者小头像 darkpard
1639
0
0
2021-12-06 20:31:52
999+
0
0
学习笔记|核技巧在支持向量机中的应用
同样,分类决策函数中的内积也可以用核函数代替,而分类决策函数式成为也就是说,在核函数K(x,z)给定的条件下,可以利用解线性分类问题的方法求解非线性分类问题的支持向量机。学习是隐式地在特征空间进行的,不需要显式地定义特征空间和映射函数。这样的技巧称为核技巧,它是巧妙地利用线性分类学习方法与核函数解决非线性问题的技术。在实际应用中,往往依赖领域知识直接选择核函数,核函数选择的有效性需要通过实验...
作者小头像 darkpard
1422
0
0
2021-12-05 21:34:05
999+
0
0
学习笔记|核技巧
1. 非线性分类问题非线性分类问题是指通过利用非线性模型才能很好地进行分类的问题。先看一个例子:左图是一个分类问题,图中“·”表示正实例点,“x”表示负实例点。由图可见,无法用直线(线性模型)将正负实例正确分开,但可以用一条椭圆曲线(非线性模型)将它们正确分开。非线性问题往往不好求解,所以希望能用解线性分类问题的方法解决这个问题。所采取的方法是进行一个非线性变换,将非线性问题变换为线性问题,...
作者小头像 darkpard
1492
0
0
2021-12-04 22:13:37
999+
0
0
学习笔记|合页损失函数
1. 合页损失函数介绍线性支持向量机学习还有另外一种解释,就是最小化以下目标函数:目标函数的第1项是经验损失或经验风险,函数称为合损失函数。下标“+”表示以下取正值的函数2. 正则化合页损失最优化与线性支持向量机最优化的等价性定理: 线性支持向量机原始最优化问题:等价于正则化合页损失最优化问题证明:正则化合页损失最优化问题可以写成原始最优化问题令则因此,正则化合页损失最优化问题可以写成等价于...
作者小头像 darkpard
1586
0
0
2021-12-03 22:04:09
999+
0
0
学习笔记|线性支持向量机的支持向量
线性支持向量机学习的原始问题是其对偶问题是对偶问题的KKT条件为(可参见学习笔记|广义拉格朗日函数与KKT条件的应用)令对偶问题的解为参考文献【1】统计学习方法(第2版),李航著,清华大学出版社
作者小头像 darkpard
1430
0
0
2021-12-02 20:15:08
999+
0
0
学习笔记|线性支持向量机学习的对偶算法
线性支持向量机学习的原始问题是则其拉格朗日函数是(拉格朗日函数的构造方法可参见学习笔记|广义拉格朗日函数与KKT条件的应用 中的广义拉格朗日函数)对偶问题是拉格朗日函数的极大极小问题。首先求L(ω,b,η,α,μ)对ω,b,η的极小(可参考学习笔记|拉格朗日对偶性),有得因此再对上式求α的极大,即对偶问题:它等价于:证明: 原始问题是凸二次规划问题,解满足KKT条件。即得(可参见学习笔记|广...
作者小头像 darkpard
1497
0
0
2021-12-01 20:36:18
999+
0
0
总条数:159
  • 1
  • ...
  • 9
  • 10
  • 11
  • ...
  • 16
到第 页

上滑加载中

https://www.baidu.com/s?ie=utf-8&f=3&rsv_bp=0&rsv_idx=1&tn=baidu&wd=sed%20%E6%9B%BF%E6%8D%A2%E5%AD%97%E7%AC%A6%E4%B8%B2&rsv_pq=c7db61a600035dc5&rsv_t=5e19yEsbV9N5fIvdlGRU
作者小头像
作者小头像
快速交付
+ 关注 私信