AI
Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification 论文研读
0. 个人浅谈 Attention是在2014年提出的(paper为:Recurrent Models of Visual Attention,下载地址为https://papers.nips.cc/paper/5542-recurrent-models-of-visual-attention.pdf),而本文的发表时间是在2016年,它是ACL会议(NLP国际顶级会议之一)的录用论文(具有一定的研究意义),显而易见的是它是把attention应用到到NLP的关系抽取中的一个成功实践。所以对于AI学习者而言,学习最新的技术,然后将其应用到自己所在的工作领域,这是一件非常有趣的事情。 1. 摘要 关系抽取是自然语言处理领域中一个非常重要的语义处理任务(除了语义处理,还有其他任务吗?)。然而,已有的系统使用词法资源(如WordNet)或者依赖于解析器和命名实体识别获得的高级特征。另外一个挑战是,重要的信息可能出现在句子中的任意位置。为了解决这些问题,我们提出了基于注意力机制的LSTM网络,从而可以获取句子中最重要的语义信息。我们采用的实验数据是SemEval-2010关系分类任务数