分类
正在加载今日诗词...
Empower Sequence Labeling with Task-Aware Neural Language Model Empower Sequence Labeling with Task-Aware Neural Language Model
自从这学期没课以来,一直过着非正常人的生活,作息时间比正常人推迟了3个小时:3点睡觉、12点起床、15点吃午饭、21点吃晚饭。因此决定不再如此颓废,每日泛读一篇顶会paper,了解其大概思想即可,然后大概将思想发出来,美其名曰:PaperD
2018-01-09
词性标注+语言模型简易实现 词性标注+语言模型简易实现
文本挖掘课的project,实现的是词性标注,增加了语言模型表示。语言模型在小数据下会过拟合,但是大数据训练要三个星期。。。所以还是放弃了,不添加语言模型好了。词性标注的话如果添加CRF效果反而会下降,也是很奇怪哦。。。如果直接用最裸的Bi
2018-01-01
Sequence Tagging with Little Labeled Data Sequence Tagging with Little Labeled Data
历经几个星期的磨难,文本挖掘课的presentation课件初稿基本完成了,1月中下旬开讲,这次讲的是基于少量标注数据的序列标注,下面是我的综述。 Outline Sequence Tagging Semi-supervised Lear
2017-12-30
Scientific Information Extraction with Semi-supervised Neural Tagging Scientific Information Extraction with Semi-supervised Neural Tagging
论文链接:D17-1279 摘要 这篇论文研究的是科技论文的信息抽取问题,比如给你一篇paper,你要找出其中的Task(任务)、Process(过程方法)、Material(资料数据)三种实体。这个问题可以归类为序列标注问题,但是科技论文
2017-12-19
Cross-Lingual Transfer Learning for POS Tagging without Cross-Lingual Resources Cross-Lingual Transfer Learning for POS Tagging without Cross-Lingual Resources
论文链接:D17-1302 摘要 本文介绍了一个跨语言的序列标注迁移模型,和以往不同的是,不需要大量的跨语言语料。 1 介绍 之前正好才看过一篇Yang et al. (2017)的论文Transfer Learning for Seque
2017-12-19
Sequence Tagging with Little Labeled Data Sequence Tagging with Little Labeled Data
文本挖掘课presentation还有一个多月了,依然很迷茫,不知道选什么课题。最近看了一些序列标注相关的paper,暂且就准备挑一个相关的点做了,打算做一个“基于少量标注数据的序列标注”。 主要方法 基于少量标注数据的序列标注,主要有两种
2017-11-29
Transfer Learning for Sequence Tagging with Hierarchical Recurrent Networks Transfer Learning for Sequence Tagging with Hierarchical Recurrent Networks
论文链接:链接 摘要 探索一种神经序列标注的迁移学习方法,适用于源任务有大量标注标签,但是目标任务标注标签很少的情况,主要有三个方面:跨领域、跨应用、跨语言。 1 介绍 序列标注任务的一个难点就是怎样将知识从一个任务迁移到另一个任务上面去,
2017-11-13
Implicitly-Defined Neural Networks for Sequence Labeling Implicitly-Defined Neural Networks for Sequence Labeling
论文链接:P17-2027 摘要 这篇论文介绍了一种新奇的、隐式定义神经网络,并且描述了计算它的方法。 1 介绍 传统的双向RNN只能单独计算两个方向的隐含层,现在介绍一种新的机制,将两个方向的信息直接结合起来计算。 2 INN 2.1 传
2017-10-25
Semi-supervised sequence tagging with bidirectional language models Semi-supervised sequence tagging with bidirectional language models
论文链接:P17-1161 摘要 从未标注文本中学习到的预训练词向量已经成为NLP任务神经网络结构的重要组成部分。但是大多数情况下,现在的循环神经网络还是从极少的标注数据中学习上下文相关的表示。所以这篇论文研究一种通用的半监督学习方法,将从
2017-10-03