第一周
An Introductory Survey on Attention Mechanisms in NLP Problems
标签:Attention 综述
本文来自佐治亚理工学院,这是一篇 Attention 机制在自然语言处理方面的综述文章,包括基本概念和 Attention 在不同 NLP 任务上的模型变种。LiveBot: Generating Live Video Comments Based on Visual and Textual Contexts
标签:弹幕生成
本文是北京大学孙栩老师组和微软亚洲研究院发表在 AAAI 2019 上的工作。文章介绍了 “弹幕生成” 任务,根据一定时间范围内的视频帧和评论文本进行弹幕评论的生成,并且构建了基于 B 站的数据集。
通过对数据集的分析发现:弹幕评论长度较短;相邻时间间隔的评论具有较高的关联度。基于此,文章先是利用传统的 Seq2Seq 架构,设计了 Video Encoder 和 Text Encoder 进行图像和文字信息的融合,再交由 Comment Decoder 进行生成;进一步地,利用 Transformer 替代 RNN Encoder,提出了一个 Unified Transformer Model。
并且,为了更好的评估模型的性能,文章提出了一个基于生成概率对候选评论进行排序的指标,对比之前的 Seq2Seq 模型,文章提出的两个模型能够取得更好的效果。- Contextual String Embeddings for Sequence Labeling
标签:Word Embeddings
源码:https://github.com/zalandoresearch/flair
本文是 Zalando Research 发表于 COLING 2018 的工作,论文提出了一种全新产生 embedding 的 BiLSTM 模型结构,模型特点:
模型以 character 为原子单位,在网络中,每个 character 都有一个对应的 hidden state。这个特点对需要多一步分词的中文来说可能有避免因为分词错误导致下游 function 继续错误的弊端;
输出以 word 为单位的 embedding,这个 embedding 由前向 LSTM 中,该词最后一个字母的 hidden state 和反向 LSTM 中该词第一个字母的 hidden state 拼接组成,这样就能够兼顾上下文信息。
这种动态 embedding 的方法在序列标注上取得了良好效果,特别值得一提的是,在 NER 上的表现甚至超越了 BERT,但训练成本只是一个 GPU 一周,训练数据在十亿个词量,与 BERT 相比对硬件的要求极大降低,训练成本的大幅减少却仍有性能上的提升,动态 embedding 的思路值得借鉴和尝试。 - Discriminative Deep Dyna-Q: Robust Planning for Dialogue Policy Learning
标签:Dialog Systems
源码:https://github.com/MiuLab/DDQ
本文是微软和台湾大学发表于 ACL 2018 的工作,论文提出了一种针对任务型对话系统的学习方式 ——Deep Dyna-Q,在仅使用少量真实用户交互数据的前提下,基于集成规划的方法进行对话策略学习。作者将 world model 引入对话 agent,模仿真实的用户响应并不断学习生成模拟的用户对话,利用真实和模拟的对话经验对 agent 进行优化。 - Learning Personalized End-to-End Goal-Oriented Dialog
标签:Goal-Oriented Dialog
本文是微软亚洲研究院和北京大学孙栩组共同完成即将发表在 AAAI 2019 的工作。为对话系统引入个性化是今年对话领域最为火热的研究方向之一。此前有一些工作研究在开放式对话(chitchat)中引入个性化,使得对话生成中可以包含一定的对话者身份的信息,使对话质量更高。而本文关注在鲜有人研究且更加困难的任务型对话领域,探索如何能针对用户的不同身份采取不同的对话策略,提高任务完成率和用户满意度。
本文提出了 Personalized MemN2N 模型,引入 profile embedding,并在对话模型和 KB 之间建立联系,有效地提升了对话系统质量,达到任务型对话个性化数据集上新的 state-of-the-art。在针对任务型研究较少的环境下,这一工作具有非常高的参考价值。