作者小头像 Lv.6
更多个人资料
1949 成长值
28 关注
26 粉丝
+ 关注 私信

个人介绍

这个人很懒,什么都没有留下

感兴趣或擅长的领域

人工智能
个人勋章
TA还没获得勋章~
成长雷达
1185
744
0
0
20

个人资料

个人介绍

这个人很懒,什么都没有留下

感兴趣或擅长的领域

人工智能

达成规则

以上满足项可达成此勋章

  • 博客
  • 关注
  • 粉丝
  • 论坛
CD-DNN-HMM训练过程
我们可以使用嵌入的维特比算法来训练CD-DNN-HMM,主要的步骤总结见下表。CD-DNN-HMM包含三个组成部分,一个深度神经网络dnn、一个隐马尔可夫模型hmm,以及一个状态先验概率分布prior。由于CD-DNN-HMM系统和GMM-HMM系统共享音素绑定结构,训练CD-DNN-HMM 的第一步就是使用训练数据训练一个GMM-HMM系统。因为DNN训练标注是由GMM-HMM系统采用维特...
作者小头像 可爱又积极
2121
0
0
2021-11-22 10:01:20
999+
0
0
espnet安装--kaldi安装
一、Ubuntu镜像上传到集群1.下载镜像代码如下(示例): docker pull ecpe4s/ubuntu20.04-spack2.查看镜像是否下载完成代码如下(示例):docker images3.更改镜像名称代码如下(示例):docker tag tensorflow/ecpe4s/ubuntu20.04-spack 211.82.236.15:8888/liu2yang/ubun...
作者小头像 可爱又积极
1546
0
0
2021-11-18 15:40:33
999+
0
0
TDNN详解
DNN Neural network architecture对于一般的DNN在处理上下文时,想法一般是这样的。比如我们想提取具有上下文分别7帧共15帧的特征表达,我们一般会将这15帧的特征直接拼起来,形成一个15*F(F是我们每一帧的特征维度)的特征,然后去学习15*F的特征映射。而对于TDNN来说不是这样做的,假如我们最后仍然想获取时序上15帧上下文的特征表达。在TDNN的初始层中,会处...
作者小头像 可爱又积极
1954
0
0
2021-11-09 15:19:28
999+
0
0
kaldi中nnet3解码实践
Kaldi的nnet3网络结构。xconfig: 类似于keras,简洁的网络定义,xconfig覆盖了大部分常用的神经网络layerconfig: kaldi实际使用的config, 基于node定义网络结构,如果xconfig无法满足需求,可在config层实现。C++: 如果某些网络无法用config构建,或者想提高效率,则可以在C++层实现。(Kaldi本身的LSTM可以通过conf...
作者小头像 可爱又积极
1722
0
0
2021-11-03 16:23:56
999+
0
0
Anchor-free目标检测 | 工业应用更友好的新网络
下面几篇paper有异曲同工之妙,开启了anchor-based和anchor-free的轮回。1. Feature Selective Anchor-Free Module for Single-Shot Object Detection2. FCOS: Fully Convolutional One-Stage Object Detection3. FoveaBox: Beyond An...
作者小头像 可爱又积极
1233
0
0
2021-10-27 13:56:48
999+
0
0
NLP领域的Transformer预训练模型
预训练预训练能带来以下一些优势:通过利用大量无标注文本,预训练有助于模型学习通用语言表征。只需增加一两个特定的层,预训练模型可以适应下游任务。因此这能提供很好的初始化,从而避免从头开始训练下游模型(只需训练特定于任务的层)。让模型只需小型数据集就能获得更好的表现,因此可以降低对大量有标注实例的需求。深度学习模型由于参数数量大,因此在使用小型数据集训练时,容易过拟合。而预训练可以提供很好的初始...
作者小头像 可爱又积极
1740
0
0
2021-10-27 13:48:28
999+
0
0
Word2vec的优化加速方法
Word2vec 最主要的问题是这个处理过程非常耗时,需要计算的参数较多。通常,词汇表容量在百万级别以上,这意味着输出层使用 softmax 计算各个词的输出概率的计算量很大,这就会导致模型在通过反向传播算法更新模型参数时的工作量变大,从而导致训练过程缓慢,无法很快收敛。Mikolov等人在 2013 年提出了几种解决办法,有效的提高了Word2vec 模型的训练速度和模型效果,使得 Wor...
作者小头像 可爱又积极
1799
0
0
2021-10-27 13:38:41
999+
0
0
Word2vec 词嵌入模型
2013 年,Mikolov等人提出神经网络分布式词向量 Word2vec 模型,随后谷歌公司把该模型发布,该方法的提出让预训练词向量在 NLP 领域大放异彩。Word2vec 本质上是一种无监督的学习方法,因此不受语料数量的限制,极大的减少了自然语言处理任务中人工标注的工作量。Word2vec 网络是包含三层全连接层的神经网络,分别是输入层、隐藏层、输出层(softmax 层),Word2...
作者小头像 可爱又积极
1330
0
0
2021-10-27 13:35:01
999+
0
0
基于角点的Anchor-Free目标检测
基于角点的目标检测方法通过组合从特征图中学习到的角点对来预测边框。这种方法不需要设计锚框, 减少了对锚框的各种计算, 从而成为生成高质量边框的更有效的方法。 基于角点Anchor-Free 目标检测模型主要有 CornerNet 和 CornerNet 的优化CornerNet-Lite。Law 等提出了一个基于配对关键点 (左上角和右下角) 的目标检测方法, 即CornerNet。算法步骤...
作者小头像 可爱又积极
733
0
0
2021-10-22 09:33:00
733
0
0
预训练模型发展历史
早期的PTMs技术的目标是学习好的词嵌入。由于下游任务不再需要使用这些模型,因此它们在计算效率方面通常非常低,如Skip-Gram和GloVe。虽然这些预先训练的词向量可以捕获单词的语义含义,但它们是上下文无关的,不能捕获文本的高级概念,如语法和语义等。从 2016年开始,大多数的研究都开始重视长时的上下文语义在词嵌入中的作用和语言模型在大规模语料上提前预训练这两个核心观点。Dai和Le 使...
作者小头像 可爱又积极
1322
0
1
2021-10-22 09:02:05
999+
0
1
总条数:37
  • 1
  • 2
  • 3
  • 4
到第 页

上滑加载中

https://www.baidu.com/s?ie=utf-8&f=3&rsv_bp=0&rsv_idx=1&tn=baidu&wd=sed%20%E6%9B%BF%E6%8D%A2%E5%AD%97%E7%AC%A6%E4%B8%B2&rsv_pq=c7db61a600035dc5&rsv_t=5e19yEsbV9N5fIvdlGRU
作者小头像
作者小头像
快速交付
+ 关注 私信