Lv.2
hw9826
更多个人资料
90
成长值
0
关注
0
粉丝
+ 关注
私信
个人介绍
这个人很懒,什么都没有留下
感兴趣或擅长的领域
暂无数据
个人勋章
TA还没获得勋章~
成长雷达
90
0
0
0
0
个人资料
个人介绍
这个人很懒,什么都没有留下
感兴趣或擅长的领域
暂无数据
达成规则
以上满足
项可达成此勋章
博客
关注
粉丝
论坛
全部时间
全部时间
最近三天
最近一周
最近一月
全部
暂无专栏分类
深度残差收缩网络:一种深度学习的故障诊断算法
翻译仅为学习,欢迎转载。【题目】Deep Residual Shrinkage Networks for Fault Diagnosis【翻译】基于深度残差收缩网络的故障诊断Abstract (摘要)【翻译】本文提出了一种新的深度学习方法,即深度残差收缩网络,以增强深度学习方法从强噪声信号中学习特征的能力,并且取得较高的故障诊断准确率。软阈值化作为非线性层,嵌入到深度神经网络之中,以去除不重...
深度学习
神经网络
hw9826
2020-08-31 11:54:08
4480
0
0
2020-08-31 11:54:08
999+
0
0
故障诊断为什么要用深度学习?
故障诊断入门级选手提个问题,振动信号分析直接做频谱分析就好了,为啥需要人工智能? - amaze2的回答 - 知乎https://www.zhihu.com/question/332473558/answer/1349385215 对于简单的机械设备,比如一级平行齿轮箱,信号比较简单,直接频谱分析就可以满足需求。但是,如果是复杂的设备,比如多级行星齿轮传动、强环境噪声、而且故障处在早期阶段、...
深度学习
神经网络
hw9826
2020-08-31 11:34:30
3654
0
0
2020-08-31 11:34:30
999+
0
0
【深入理解】自适应参数化ReLU激活函数 Adaptively Parametric ReLU
本文首先回顾了一些传统的激活函数和注意力机制,然后解读了一种“注意力机制下的激活函数”,也就是自适应参数化修正线性单元(Adaptively Parametric Rectifier Linear Unit,APReLU)。1. 激活函数激活函数是目前人工神经网络的核心组成部分之一,其作用是进行人工神经网络的非线性化。我们首先回顾一些最为常见的激活函数,包括Sigmoid激活函数、Tanh激...
人工智能
云计算
机器学习
AI
hw9826
2020-03-24 23:55:34
4333
0
0
2020-03-24 23:55:34
999+
0
0
【深入理解】残差收缩网络 Residual Shrinkage Network
深度残差网络ResNet获得了2016年IEEE Conference on Computer Vision and Pattern Recognition的最佳论文奖,目前在谷歌学术的引用量已高达38295次。残差收缩网络是深度残差网络的一种的改进版本,其实是深度残差网络、注意力机制和软阈值函数的集成。在一定程度上,残差收缩网络的工作原理,可以理解为:通过注意力机制注意到不重要的特征,通过...
人工智能
机器学习
AI
hw9826
2020-03-24 23:39:55
3648
0
0
2020-03-24 23:39:55
999+
0
0
深度残差收缩网络:(六)代码实现
深度残差收缩网络其实是一种通用的特征学习方法,是深度残差网络ResNet、注意力机制和软阈值化的集成,可以用于图像分类。本文采用TensorFlow 1.0和TFLearn 0.3.2,编写了图像分类的程序,采用的图像数据为CIFAR-10。CIFAR-10是一个非常常用的图像数据集,包含10个类别的图像。可以在这个网址找到具体介绍:https://www.cs.toronto.edu/~k...
人工智能
机器学习
AI
hw9826
2020-01-14 22:05:46
3378
0
0
2020-01-14 22:05:46
999+
0
0
深度残差收缩网络:(五)实验验证
深度残差收缩网络(Deep Residual Shrinkage Network)是深度残差学习(Deep Residual Network, ResNet)的一种改进,发表在IEEE Transactions on Industrial Informatics上,面向的是数据包含噪声的情况。实验部分将所提出的两种深度残差收缩网络,即“通道之间共享阈值的深度残差收缩网络(Deep Resid...
人工智能
机器学习
AI
hw9826
2020-01-14 22:01:32
3640
0
0
2020-01-14 22:01:32
999+
0
0
深度残差收缩网络:(四)注意力机制下的阈值设置
对于基于深度学习的分类算法,其关键不仅在于提取与标签相关的目标信息,剔除无关的信息也是非常重要的,所以要在深度神经网络中引入软阈值化。阈值的自动设置,是深度残差收缩网络的核心贡献。需要注意的是,软阈值化中的阈值,需要满足一定的条件。这篇文章中的阈值设置,事实上,是在注意力机制下进行的。下面分别介绍阈值需要满足的条件、注意力机制以及具体的阈值设置方法。(1)阈值需要满足的条件在软阈值化中,阈值...
人工智能
机器学习
AI
hw9826
2020-01-14 21:47:17
3416
0
0
2020-01-14 21:47:17
999+
0
0
深度残差收缩网络:(三)网络结构
深度残差收缩网络(Deep Residual Shrinkage Network)是深度残差学习(Deep Residual Network, ResNet)的一种改进,发表在IEEE Transactions on Industrial Informatics上,面向的是数据包含噪声的情况。(1)回顾一下深度残差网络的结构在下图中,(a)-(c)分别是三种残差模块,(d)是深度残差网络的整...
人工智能
机器学习
AI
hw9826
2020-01-14 21:03:13
4300
0
0
2020-01-14 21:03:13
999+
0
0
深度残差收缩网络:(二)整体思路
深度残差收缩网络(Deep Residual Shrinkage Network)是深度残差学习(Deep Residual Network, ResNet)的一种改进,发表在IEEE Transactions on Industrial Informatics上,面向的是数据包含噪声的情况。其实,这篇文章的摘要很好地总结了整体的思路。一共四句话,非常简明扼要。我们首先来翻译一下论文的摘要:...
人工智能
机器学习
AI
hw9826
2020-01-14 20:53:19
3488
0
0
2020-01-14 20:53:19
999+
0
0
深度残差收缩网络:(一)背景知识
深度残差收缩网络(Deep Residual Shrinkage Network)是深度残差学习(Deep Residual Network, ResNet)的一种改进,发表在IEEE Transactions on Industrial Informatics上,面向的是数据包含噪声的情况。简单地讲,深度残差收缩网络就是,将软阈值化作为可训练的模块,嵌入到ResNet之中。接下来结合自己的...
网络
机器学习
hw9826
2020-01-14 20:47:02
3379
0
0
2020-01-14 20:47:02
999+
0
0
https://www.baidu.com/s?ie=utf-8&f=3&rsv_bp=0&rsv_idx=1&tn=baidu&wd=sed%20%E6%9B%BF%E6%8D%A2%E5%AD%97%E7%AC%A6%E4%B8%B2&rsv_pq=c7db61a600035dc5&rsv_t=5e19yEsbV9N5fIvdlGRU
+ 关注