文章目录

  • 1 简介
  • 1.1 创新
  • 2 方法
  • 3 实验


1 简介


1.1 创新

  • 提出一个编码-解码模型进行文档级事件抽取,分别基于文档级别的编码和多粒度的解码。
  • 介绍一种匹配损失函数用于训练端到端模型,它可以加强全局优化。

2 方法

NLP 会议和期刊_ide


模型的整体框架如上图所示,分为下面5部分。

  1. 候选论元识别:首先使用第一个Transformer对句子进行编码,然后以序列标注的形式进行句子级的候选论元识别。
  2. 文档级别编码:实现对候选论元和句子编码进行max-pooling,然后经过第二个Transformer建模全部的句子和论元之间的关系(句子的编码中加入位置编码)。然后对NLP 会议和期刊_NLP 会议和期刊_02进行max-pooling操作,在对每个事件类型进行二分类,进行事件类型分类。
  3. 多粒度解码:多粒度的编码器包括三个部分:事件编码器、角色编码器、事件-角色编码器。
    在事件编码器中设置m为生成事件的数量(大于文档中的平均数量),其中NLP 会议和期刊_NLP 会议和期刊_03为事件query。

    在角色编码器中设置n为角色类型的数量(大于文档中的平均数量),其中NLP 会议和期刊_ide_04为角色query。

    在事件-角色编码器中,建模事件查询和论元查询的关系。
  4. 事件预测:使用下面公式过滤虚假的事件,进行二分类(非空,空)。

    使用下面公式对论元进行分类(NLP 会议和期刊_损失函数_05分类),

    得到m个事件NLP 会议和期刊_NLP 会议和期刊_06,其中每个事件包含n个预测论元。NLP 会议和期刊_NLP 会议和期刊_07
  5. 匹配loss函数:定义双向匹配的损失公式如下:
    NLP 会议和期刊_ide_08公式如下,其中NLP 会议和期刊_编码器_09为判断事件i是否为空,

    则损失函数如下:

    最终的损失函数如下(候选论元识别、事件类型分类):

3 实验

数据集为ChFinAnn,实验结果如下图:

NLP 会议和期刊_ide_10


在不同发散程度的论元情况下的实验结果:

NLP 会议和期刊_ide_11


单事件和多事件实验结果:

NLP 会议和期刊_损失函数_12


消融实验的实验效果:

NLP 会议和期刊_损失函数_13

不同解码层数的实验效果:

NLP 会议和期刊_NLP 会议和期刊_14


不同事件生成数量的实验效果:

NLP 会议和期刊_损失函数_15