在此一键设置昵称,即可参与社区互动!
发表于2020年11月19日 15:23:54
直达本楼层的链接
沙发
显示全部楼层
|
|
发表于2020年11月22日 21:07:02
直达本楼层的链接
板凳
显示全部楼层
all_encoder_layers: 经过transformer_model函数返回每个block的结果,即对应bert的12个Transformer层,均是原始高维数据。如果要分析不同层抽取何种特征,可以分析这个得出一些结论 embedding_table: vocab表,用于构建字符embedding向量 embedding_output: embedding结果 sequence_output: 是bert最后一层的输出,需要验证一下all_encoder_layers最后一层的输出有何区别 维度为[Batch_szie, seq_length, hidden_size],这和一开始词向量的维度是一样的,只不过这个结果是经过Transformer Encoded提取特征之后的,包含重要的信息,也是bert想得到的结果 pooled_output: 一般分类任务需要的特征,pooled_output是取sequence_output的第一个切片然后线性投影获得,这个位置就是[CLS] |
|