adtop
金财网 > 科技

本周值得读(2017.02.13-2017.02.17)

www.041799.com|时间:2017-02-19 11:33|责任编辑:沐瑶|来源: 互联网   阅读量:9491   

1、Hybrid Code Networks: practical and efficient end-to-end dialog control with supervised and reinforcement learning

2、Universal Semantic Parsing

【语义分析】本文提出了一种语义分析框架UDepLambda,可将自然语言映射为逻辑形式,用于QA任务,取得了不错的效果。

3、Learning to Parse and Translate Improves Neural Machine Translation

【NMT】 本文的亮点在于将语言学知识融入到了seq2seq+attention模型中,而不只是简单的端到端。如何将更多的、更丰富的先验知识构建到现有的模型中是一个重要的课题,也是一个值得思考的方向。

4、Paraconsistency and Word Puzzles

【问答系统】 2001年,IBM的沃森系统在Jeopardy节目中,与人类同场竞技,并且最终取得胜利。问答系统在过去20年,迅猛发展,并成为热点研究课题。然而,对于自然语言的深层理解,例如基于英文句子的逻辑推理,依然有待深入研究。本文研究如何应用次协调逻辑系统(Paraconsistent logic),表达自然语言的语义,并且进行逻辑推理。该理论可以自动地找出自然语言述中的矛盾(语义悖论),并且在存在语义冲突的环境中进行合理的逻辑推理。本文工作来自Stony Brook University的TIANTIAN GAO同学。

5、Automated Phrase Mining from Massive Text Corpora

【信息抽取】本文解决的问题是短语抽取,亮点在于:1、利用已有的知识库(Wikipedia)做远程监督训练;2、利用词性信息来增加抽取的准确性。本文工作来自UIUC Jiawei Han老师组。

6、Frustratingly Short Attention Spans in Neural Language Modeling

【语言模型】 深度学习模型做一些排列、组合和变换之后会形成无穷多的模型,本文在经典neural语言模型+attention模型的基础上,对每个time step中的output vector进行了分割,用其中一部分向量作为attention,也就是所谓的short attention。

关于PaperWeekly

PaperWeekly是一个分享知识和交流学问的学术组织,关注的领域是NLP的各个方向。如果你也经常读paper,也喜欢分享知识,也喜欢和大家一起讨论和学习的话,请速速来加入我们吧。

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

热搜: 收藏
精选
adr03