Lv.1
EnernityTwinkle
更多个人资料
20
成长值
0
关注
0
粉丝
+ 关注
私信
个人介绍
这个人很懒,什么都没有留下
感兴趣或擅长的领域
暂无数据
个人勋章
TA还没获得勋章~
成长雷达
20
0
0
0
0
个人资料
个人介绍
这个人很懒,什么都没有留下
感兴趣或擅长的领域
暂无数据
达成规则
以上满足
项可达成此勋章
博客
关注
粉丝
论坛
全部时间
全部时间
最近三天
最近一周
最近一月
全部
暂无专栏分类
ALBERT:更少参数量的预训练语言模型
ALBERT是在BERT基础上改进的一种预训练语言模型,它通过词向量矩阵分解和不同层的参数共享两种策略有效减少了模型的参数量,不仅如此,它以相对较少的参数量实现了更好的模型结果。
自然语言处理基础
语言理解
EnernityTwinkle
2021-08-11 11:33:12
7805
0
0
2021-08-11 11:33:12
999+
0
0
Sentence-BERT:句子级语义向量表示方法
Sentence-BERT提出动机解决传统BERT在大规模语义相似度计算场景下运行效率低的问题。BERT在句子对相似度计算上取得了很好的效果,然而它要求以句子对的形式进行输入。在这种方式下,如果我们想要计算10,000个句子中最相似的两个句子,那么需要构建大约5,000,0000个句子对组合进行推理计算,时间复杂度很高,不适用于上线场景中。而Sentence-BERT是通过将单个句子编码成...
机器学习
EnernityTwinkle
2021-08-03 09:29:38
5834
0
0
2021-08-03 09:29:38
999+
0
0
https://www.baidu.com/s?ie=utf-8&f=3&rsv_bp=0&rsv_idx=1&tn=baidu&wd=sed%20%E6%9B%BF%E6%8D%A2%E5%AD%97%E7%AC%A6%E4%B8%B2&rsv_pq=c7db61a600035dc5&rsv_t=5e19yEsbV9N5fIvdlGRU
+ 关注
私信