NLP4ConvAI2021 | plms-graph2text 预训练语言模型用于图谱文本生成

JuTzungKuei 发表于 2022/01/07 09:54:41 2022/01/07
【摘要】 本文是对NLP4ConvAI2021 预训练语言模型用于图谱文本生成 这一论文工作进行初步解读。

论文:Ribeiro Leonardo F. R., Schmitt Martin, Schütze Hinrich, Gurevych Iryna. Investigating Pretrained Language Models for Graph-to-Text Generation[A]. Proceedings of the 3rd Workshop on Natural Language Processing for Conversational AI [C]. Online: Association for Computational Linguistics, 2021, 211–227.

链接:https://aclanthology.org/2021.nlp4convai-1.20

代码:https://github.com/UKPLab/plms-graph2text

0、摘要

  • KG-to-text:目的是基于图谱数据生成流畅的文本
  • 研究最近的2个PLM(BART、T5)
    • 不同自适应任务,进行预训练
    • 3个图:MR、Wiki、sci
    • 3个数据达到SOTA:AMR、WebNLG、AGENDA
  • PLM效果好的原因:预训练或微调期间看到过类似的事实

1、介绍

  • 图:NLP里重要的数据结构,表示一组对象的复杂关系
  • 句子的语义和句法结构可以使用不同的图表示
    • AMRs、语义角色标注、句法语义图、知识图谱
  • KG-to-text:data-to-text 生成的子任务
    • 对话系统、问答
  • 本文研究BART、T5,encoder-decoder结构,适合条件文本生成
    • 引入任务自适应 KG-to-text预训练方法,提升性能
  • 最近工作都显式的编码图结构,但是PLMs都优于它们
    • 非显示、简单的线性遍历
    • 微调PLMs,即使KG简化,也有高性能

  • 贡献
    • 研究BART和T5,语言模型自适应LMA和有监督任务自适应STA
    • 方法优于现有技术(图结构:GNNs)
    • 众包实验,方法优于人类
    • 即使没有节点连接信息(混合线性化图表示),性能也良好

2、方法

  • BART和T5 区别:预训练方法、语料库
  • 在有监督的下游任务数据上微调
  • T5设置:在图谱输入前,加前缀“translate from Graph to Text:”,模仿T5训练过程
  • 任务自适应
    • 利用额外的任务特定数据集改善性能(与任务相关的预训练语料,量小)
    • 在原始预训练和微调之间,增加一个自适应预训练
  • BART和T5先做【继续预训练】
    • language model adaptation
      (LMA) 或者 supervised task adaptation (STA)
    • STA:使用与目标任务相同或相似的图谱-文本语料对
    • LMA:遵循BART和T5的预训练策略,只使用图谱相对应的描述文本
    • 注:LMA预训练不使用图谱,只使用文本(使解码器适应目标领域)
    • 评估前:使用原始训练集微调模型

3、结果

  • WebNLG Challenge 2017 数据集


号外号外:想了解更多的AI技术干货,欢迎上华为云的AI专区,目前有AI编程Python等六大实战营供大家免费学习。

【版权声明】本文为华为云社区用户原创内容,未经允许不得转载,如需转载请发送邮件至:cloudbbs@huaweicloud.com;如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容。
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。