论文笔记目录
一、简介
CCL2016: Event Extraction via Bidirectional Long Short-Term Memory Tensor Neural Network
Author: Chen, Yubo and Liu, Shulin and He, Shizhu and Liu, Kang and Zhao, Jun
url: http://www.cips-cl.org/static/anthology/CCL-2016/CCL-16-081.pdf
DataSet: ACE2005 English Corpus
Keywords: Context-aware word representation, BDLSTM, Tensor layer
二、动机
传统的ACE事件提取方法通常依赖于复杂的自然语言处理(NLP)工具和精心设计的特征。这会受到现有工具的错误传播的影响,并且需要大量的人力努力。而且几乎所有的方法都是单独提取事件的每个参数,而没有考虑日期参数之间的相互作用
三、创新
- 提出了一种基于BDLSTM的上下文感知单词表示模型,用于获取单词的语义
- 提出了一个张量层TNNS(类似动态卷积层)来自动探索论元和论元之间的相互作用
四、方法
基于双向动态多池长短期记忆网络(BDLSTM),利用自动学习的有价值线索,将事件提取描述为一个两阶段的多类分类问题,提出了一种基于双向动态多池长短期记忆网络(BDLSTM)的事件提取算法。第一个阶段称为触发器分类,我们使用BDLSTM对句子中的每个词进行分类,以识别触发词。如果一个句子有触发器,则执行第二阶段,该阶段采用类似的BDLSTM将参数分配给触发器并对齐参数的角色。我们称之为论元分类。为了探索最新论元之间的相互作用,同时预测所有候选论元,我们在论元分类阶段设计了一个张力层,因为论元的提取是更复杂的,我们首先描述了的BDLSTM如何分别预测每件候选触发词的方法,然后说明了第3.5节中用于触发分类的BDLSTM和用于服装分类的BDLSTM之间的区别。最后,我们介绍了双向动态多池长短期记忆张量神经网络,并在第3.6节∼3.7中说明了它是如何联合预测所有候选论元的。图2描述了论元分类的双向动态多池长短期记忆张量神经网络体系结构,主要包括以下三个部分:(I)上下文感知词表示;(Ii)动态多池层;(Iii)论元分类器输出层。
五、实验
六、总结
本文提出了一种新的事件抽取方法(BDLSTM-TNNS),该方法无需复杂的NLP预处理即可自动从纯文本中提取有价值的线索,并能同时预测候选论据。提出了一种基于BDLSTM的上下文感知单词表示模型,用于获取单词的语义。此外,还设计了一个张量层来捕捉候选论据之间的交互,并对它们进行联合预测。实验结果证明了该方法的有效性。