Lv.2
hanzee_
更多个人资料
123
成长值
1
关注
1
粉丝
+ 关注
私信
个人介绍
这个人很懒,什么都没有留下
感兴趣或擅长的领域
人工智能
个人勋章
TA还没获得勋章~
成长雷达
100
3
0
0
20
个人资料
个人介绍
这个人很懒,什么都没有留下
感兴趣或擅长的领域
人工智能
达成规则
以上满足
项可达成此勋章
博客
关注
粉丝
论坛
全部时间
全部时间
最近三天
最近一周
最近一月
全部
暂无专栏分类
机器学习:梯度下降法详细指南
机器学习:梯度下降法 为什么需要梯度下降法1.梯度下降法是迭代法的一种,可用于求解最小二乘问题。2.在求解机器学习算法的模型参数,在没有约束条件时,主要有梯度下降法,最小二乘法。3.在求解损失函数的最小值时,可以通过梯度下降法的迭代求解,求得最小值的损失函数和模型的参数。4.如果我们需要求解损失函数的最大值,可以通过梯度上升法来迭代,梯度下降法和梯度上升法可以相互转换。5.在机器学习中,梯...
机器学习
hanzee_
2022-10-30 13:57:08
6913
0
0
2022-10-30 13:57:08
999+
0
0
深度学习:GoogLeNet核心思想详细讲解
深度学习:GoogLeNet核心思想详细讲解💡 在2014年的ImageNet图像识别挑战赛中,一个名叫GoogLeNet [Szegedy et al., 2015]的网络架构大放异彩。GoogLeNet吸收了NiN中串联网络的思想,并在此基础上做了改进。 这篇论文的一个重点是解决了什么样大小的卷积核最合适的问题。毕竟,以前流行的网络使用小到1 * 1,大到5 * 5的卷积核。 本文的...
人工智能
Python
机器学习
深度学习
神经网络
hanzee_
2022-10-29 15:47:36
6007
0
0
2022-10-29 15:47:36
999+
0
0
深度学习:VGG(Vision Geometrical Group)论文详细讲解
深度学习:VGG(Vision Geometrical Group)论文详细讲解 前置知识Lenet-5服装分类卷积神经网络详细指南SGD+动量法反向传播公式推导 VGG模型 概述vgg原文💡虽然AlexNet证明深层神经网络卓有成效,但它没有提供一个通用的模板来指导后续的研究人员设计新的网络。与芯片设计中工程师从放置晶体管到逻辑元件再到逻辑块的过程类似,神经网络架构的设计也逐渐变得更加...
深度学习
神经网络
hanzee_
2022-10-25 18:28:30
10926
0
0
2022-10-25 18:28:30
999+
0
0
深度学习:NiN(Network In Network)详细讲解与代码实现
深度学习:NiN(Network In Network)详细讲解与代码实现 网络核心思想LeNet、AlexNet和VGG都有一个共同的设计模式:通过一系列的卷积层与汇聚层来提取空间结构特征;然后通过全连接层对特征的表征进行处理。AlexNet和VGG对LeNet的改进主要在于如何扩大和加深这两个模块。或者,可以想象在这个过程的早期使用全连接层。然而,如果使用了全连接层,可能会完全放弃表征...
人工智能
Python
机器学习
深度学习
hanzee_
2022-10-25 18:27:34
3346
0
0
2022-10-25 18:27:34
999+
0
0
机器学习:线性判别分析从理论到公式推导(LDA)
机器学习:线性判别分析从理论到公式推导(LDA) 数据定义DataSet X:=(xi,yi)i=1N,令X的每个观测值xi∈Rp{(x_i,y_i)}_{i=1}^N,令X的每个观测值xi \in R^p(xi,yi)i=1N,令X的每个观测值xi∈Rp,Y的每个元素yi∈Ry_i\in Ryi∈R,我们继续化简,X=Y=其中yi为+1的输入C1类别,yi为−1的输入C2y_i为+...
人工智能
机器学习
hanzee_
2022-10-17 18:35:38
3207
0
0
2022-10-17 18:35:38
999+
0
0
机器学习:浅析从感知机到多层感知机
@TOC 概述通过前面的内容,我们深入剖析了单个感知机是如何运作的,如果想了解欢迎考古:感知机从理论到代码。接下里,我们来探讨一下:为什么感知机不能解决疑惑问题,但是多层感知机却可以解决?为什么激活函数从分段函数变成了sigmoid函数? 异或问题 前置我们知道计算机的所有程序最底层都是由与、或、异或来组成的,假设我们证明了多层感知机可以实现这四种运算,那么我们就可以假设它理论上可以逼近任何...
机器学习
深度学习
hanzee_
2022-10-14 15:18:39
6627
0
0
2022-10-14 15:18:39
999+
0
0
机器学习:过拟合与欠拟合是如何被解决的?
机器学习:过拟合与欠拟合是如何被解决的?) 什么是过拟合与欠拟合机器学习的主要挑战是我们的算法能够在为观测的数据上误差较小,而不是在只在训练集上表现良好,我们这种能力我们称之为泛化。 过拟合如上右图所示,模型通过训练集很好的拟合了观测数据,训练误差很小,但是由于过度的在训练集上拟合,当其用于推理测试数据时,误差很可能会变大,因为数据是有噪声的并且其本身与真实概率分布也有一定偏差,训练集的概...
机器学习
hanzee_
2022-10-14 14:48:48
7863
0
0
2022-10-14 14:48:48
999+
0
0
Python:iter与next的用法
Python:iter与next的用法 iter()定义:iter() 函数用来生成迭代器。语法:iter(object[, sentinel])object – 支持迭代的集合对象。sentinel – 如果传递了第二个参数,则参数 object 必须是一个可调用的对象(如,函数),此时,iter 创建了一个迭代器对象,每次调用这个迭代器对象的__next__()方法时,都会调用 obj...
Python
hanzee_
2022-10-14 14:41:02
6702
0
0
2022-10-14 14:41:02
999+
0
0
深度学习:手写反向传播算法(BackPropagation)与代码实现
@TOC 前置知识回顾损失函数:交叉熵优化方法:SGD与GD网络结构:多层感知机是如何运作的链式法则: 前向传播首先定义一个简单的三层全连接神经网络,其中为了方便运算,我们省略了激活函数与偏置系数b,网络结构如图所示:下面我们开始前向计算: 1.在这里我们发现,其中计算的结果也就是隐藏层神经元...
深度学习
网络
hanzee_
2022-10-14 13:51:05
7503
0
0
2022-10-14 13:51:05
999+
0
0
深度学习:Xavier初始化理论+代码实现
@TOC Xavier初始化理论权值初始化对网络优化至关重要。早年深度神经网络无法有效训练的一个重要原因就是早期人们对初始化不太重视。我们早期用的方法大部分都是随机初始化,而随着网络深度的加深,随机初始化在控制数值稳定性上也可能失效。Xavier这个方法可以考虑输入层与输出层的维度,使在forward 和backward阶段保持每层之间均值与方差接近。我们拿mlp举例,为了方便运算,忽略激活...
深度学习
hanzee_
2022-10-14 13:50:16
3702
0
0
2022-10-14 13:50:16
999+
0
0
总条数:14
10
10
20
50
100
1
2
上滑加载中
https://www.baidu.com/s?ie=utf-8&f=3&rsv_bp=0&rsv_idx=1&tn=baidu&wd=sed%20%E6%9B%BF%E6%8D%A2%E5%AD%97%E7%AC%A6%E4%B8%B2&rsv_pq=c7db61a600035dc5&rsv_t=5e19yEsbV9N5fIvdlGRU
+ 关注