基于深度学习的有监督关系抽取方法简介

举报
一枚搬砖工 发表于 2021/08/23 09:36:49 2021/08/23
【摘要】 随着互联网的快速发展,大数据、信息化时代悄然来临,如何从海量数据中挑选出有利用价值的信息,是十分具有挑战性的。本文将对基于深度学习的有监督关系抽取方法进行介绍。

基于深度学习的有监督关系抽取方法简介

【摘要】随着互联网的快速发展,大数据、信息化时代悄然来临,如何从海量数据中挑选出有利用价值的信息,是十分具有挑战性的。本文将对基于深度学习的有监督关系抽取方法进行介绍。

1、任务定义

关系抽取是信息抽取的重要子任务之一,其目标在于从文本中抽取出两个或多个实体之间的语义关系。根据关系事实中涉及的实体数量,又可以进一步细分为二元关系抽取和多元关系抽取。本文中,关系抽取特指二元关系抽取。

输入:句子、目标实体对(头实体+尾实体)
输出:目标实体对之间的语义关系

------------------------------------------------1:
输入:建安二十五年,曹操去世,葬于高陵,其子曹丕继位魏王。
- 头实体:曹操
- 尾实体:曹丕
输出:儿子

在上述例子中,给定输入文本“建安二十五年,曹操去世,葬于高陵,其子曹丕继位魏王。“,其中”曹操“是头实体,”曹丕“是尾实体,两者之间的语义关系为”儿子“,即可抽取关系三元组<曹操,儿子,曹丕>。

2、关系抽取方法

在有监督的关系抽取中,关系抽取任务通常被建模成一个多分类任务,大多数研究工作也围绕着如何提取文本特征用于关系分类展开。本节将介绍三种用于关系抽取的常用方法。

2.1、CNN关系抽取

论文:Relation Classification via Convolutional Deep Neural Network

CNN

主要思想:

使用CNN结构提取文本的句子级特征用于关系分类。与文本分类任务不同的是,在关系抽取任务中,头实体和尾实体对关系的预测和判断有着重要的影响。例如,在例1中,如果头实体是“曹丕”,尾实体是“曹操”,则实体对之间的关系变成了“父亲”,即<曹丕,父亲,曹操>。因此,在提取文本特征时考虑实体对的位置是十分有必要的。在这篇文章中,通过引入位置向量的方法来指明头实体和尾实体。如下图所示,词“高陵” 与头实体“曹操” 和尾实体“曹丕” 的相对位置距离分别为4 和-3,可分别在头实体和尾实体对应的位置向量表中查询得到对应的位置向量,再拼接得到词“高陵” 的全部位置向量。最后,拼接上词的原本向量表示,得到最后的词向量化表示。最后,使用一个卷积神经网络提取句子级的文本特征,用于关系分类。

PF

2.2、BiLSTM关系抽取

论文:Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification

BiLSTM

主要思想:

使用BiLSTM作为特征提取器提取文本特征,并结合注意力机制捕捉文本中的重要特征。在这篇文章中,对文本进行编码时,使用了四个位置指示符(<e1>,</e1>,<e2>,</e2>)标记实体的位置。例如,在例1中,输入文本就变成了“建安二十五年,<e1>曹操</e1>去世,葬于高陵,其子<e2>曹丕</e2>继位魏王。”,表明“曹操”是头实体,“曹丕”是尾实体。通过位置指示符,可以使模型感知实体的位置,强化模型对于实体关系的理解。然后,使用BiLSTM提取深层次的文本特征。在关系抽取中,局部特征常常足以推测判断实体对的关系。在例1中,“其子” 一词就是预测“曹操” 和“曹丕” 之间人物关系的最重要特征。在这篇文章中,使用句间注意力机制对BiLSTM提取的文本特征进行组合,提取其中最重要的语义特征信息。具体如下:

BiLSTM_formula

其中, H R d ω × T H \in R^{d^\omega\times T} ​是BiLSTM的输出, d ω d^\omega ​ 是隐层维度, T T ​ 是句子长度, ω \omega ​ 、 α \alpha ​ 、 r r ​的维度分别为 d ω d^\omega ​ 、 T T ​、 d ω d^\omega ​。最后使用特征向量 r r 进行关系分类。

2.3、BERT关系抽取

论文:Enriching Pre-trained Language Model with Entity Information for Relation Classification

RBERT

主要思想:

使用BERT抽取句子的文本特征用于关系分类。与上节相似,在这篇文章中,也是用特殊符号标记实体的位置,在头实体和尾实体周围分别插入“$”和“#”,并在每个句子的开始位置添加“[CLS]”,然后将目标文本输入到BERT中。关系分类的特征来自于三个部分:句子的整体特征,头实体特征以及尾实体特征。在BERT 预训练时, “[CLS]”被NSP任务用来判断句子对的关系,从而能够学习到对整个句子的表达。因此,句子的整体特征通过 “[CLS]”来获取:

RBERT_formula1

其中, H 0 R d H_0 \in R^d 是BERT的CLS输出向量, d d 是BERT的隐层维度。

而实体对特征则通过对实体的BERT输出做均值化处理获取。具体如下:

RBERT_formula2

最后,将获取的句子特征及实体特征拼接得到最后的特征向量,进行关系分类。

3、小结

本文对几种基于深度学习的有监督关系抽取方法进行了介绍,包括CNN关系抽取、BiLSTM关系抽取以及BERT关系抽取。

想了解更多的AI技术干货,欢迎上华为云的AI专区,目前有AI编程Python等六大实战营供大家免费学习。(六大实战营link:http://su.modelarts.club/qQB9)

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

举报
请填写举报理由
0/200