Lv.2
Tython
更多个人资料
103
成长值
1
关注
9
粉丝
+ 关注
私信
个人介绍
这个人很懒,什么都没有留下
感兴趣或擅长的领域
人工智能
个人勋章
TA还没获得勋章~
成长雷达
80
3
0
0
20
个人资料
个人介绍
这个人很懒,什么都没有留下
感兴趣或擅长的领域
人工智能
达成规则
以上满足
项可达成此勋章
博客
关注
粉丝
论坛
全部时间
全部时间
最近三天
最近一周
最近一月
全部
暂无专栏分类
INTERSPEECH2020 语音情感分析论文总结一
InterSpeech2020 语音情感分析的第一部分,总共有三部分近25篇文章。第一部分包含近期读的8篇文章。时间仓促,有写错的或漏写的还请多多批评指正。
机器学习
语音合成
Tython
2021-03-31 15:00:35
12669
2
1
2021-03-31 15:00:35
999+
2
1
语音情感识别之手工特征深度学习方法
本文章主体基于PilgrimHui的论文笔记:《语音情感识别(三)手工特征+CRNN》,在原来基础上,补充了数据处理部分以及论文方法的一些细节,欢迎语音情感分析领域的同学一起讨论。
一句话识别
人工智能
语音交互服务
Tython
2020-04-13 15:49:15
9862
0
0
2020-04-13 15:49:15
999+
0
0
语音情感识别之声谱图卷积方法
本文章主体基于PilgrimHui的《论文笔记:语音情感识别(二)声谱图+CRNN》,在原来基础上,补充了数据处理部分以及论文方法的一些细节,欢迎语音情感分析领域的同学一起讨论。
一句话识别
人工智能
语音交互服务
Tython
2020-04-13 15:39:34
10364
1
0
2020-04-13 15:39:34
999+
1
0
你听到的声音是模型听到的吗?一种增强声音分类模型鲁棒性的方法
对抗音频攻击是对音频信号添加轻微扰动,该扰动人耳不可感知的,但会使机器学习模型出现预测错误。对机器学习模型的欺骗将造成一定的安全隐患。在声音分类方向,基于CNN的模型(AlexNet/GoogLeNet)性能表现最优,但模型抗攻击能力较差。SVM模型性能比深度学习模型较差,但抗攻击能力较强。本文的研究基于SVM模型,目的是取得跟深度学习模型效果相近的同时具备更强的抗干扰能力。
云计算
Tython
2020-02-28 14:13:07
11010
0
0
2020-02-28 14:13:07
999+
0
0
基于文本和音频的情绪识别-Multi-hop Attention Mechanism
Yoon S, Byun S, Dey S, et al. Speech Emotion Recognition Using Multi-hop Attention Mechanism[C]//ICASSP 2019-2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). ...
一句话识别
人工智能
Tython
2020-02-07 12:13:02
10439
0
0
2020-02-07 12:13:02
999+
0
0
SoundNet迁移学习-由声音分类到语音情感识别
ElShaer M E A, Wisdom S, Mishra T. Transfer Learning From Sound Representations For Anger Detection in Speech[J]. arXiv preprint arXiv:1902.02120, 2019. 一、思路1、SoundNet模型在视频数据中先预训练,视频任务可能是场景识别,可参考这篇...
一句话识别
迁移学习
人工智能
Tython
2020-02-07 11:58:33
10896
0
0
2020-02-07 11:58:33
999+
0
0
SoundNet-根据声音识别场景
作者从大量的来自现实环境中的非标注音频数据,来学习自然环境下的声音表示。得益于视频数据无处不在并且很容易大规模获取,利用图像和声音的一致性,可以对非标注视频进行学习。作者通过teacher-student的学习方式,将成熟的图像识别模型用于分类视频场景以及物品识别,然后将识别的结果和语音之间进行映射,联合学习到声音的类别及场景。该模型在声音/场景分类任务中取得了SOTA的成绩。
机器学习
人工智能
Tython
2020-02-07 11:46:48
9106
0
0
2020-02-07 11:46:48
999+
0
0
亚马逊智能音箱Alexia团队音频情感分析论文
传统的语音情绪识别模型是利用句子级(utterance-level)语音特征和相关情绪标签进行训练和预测。在该论文中,作者假设语音信号是由多个隐式因子决定的,例如情绪状态、年龄、性别以及说话的内容。为此,作者提出对抗自动编码机(Adversarial Autoencoder, AAE)来对隐式因子进行推测并对输入特征进行再表示。其中,对输入特征的再表示是作为一个辅助任务,来帮助语音的情绪识别。
一句话识别
人工智能
Tython
2020-02-07 11:32:09
9868
0
0
2020-02-07 11:32:09
999+
0
0
https://www.baidu.com/s?ie=utf-8&f=3&rsv_bp=0&rsv_idx=1&tn=baidu&wd=sed%20%E6%9B%BF%E6%8D%A2%E5%AD%97%E7%AC%A6%E4%B8%B2&rsv_pq=c7db61a600035dc5&rsv_t=5e19yEsbV9N5fIvdlGRU
+ 关注