How to Make Context More Useful? An Empirical Study on Context-Aware Neural Conversational Models

关注公众号【算法码上来】,每日算法干货马上就来!

论文链接:P17-2036

介绍


最近许多研究者都注意到了上下文在对话系统中的重要性,也做了很多的研究,但是没有系统的比较来分析怎么样才能有效地利用上下文。我们做了详细的研究来比较不同的模型,研究上下文在对话系统中的作用。同时,我们提出了度量上下文与查询之间相关性的方法,比其他方法性能都出色。

模型


对话系统有两种典型的研究设置:单轮和多轮。单轮就是只输入查询$q$,输出答案$r$。但是大多数现实的对话都是要多轮的,就是要结合上下文来做出回答。
很多研究者都意识到了上下文的重要性,也提出了很多方法。一种是直接将上下文和查询向量连接到一起,另一种是分层模型。有很多方法来结合上下文和查询,比如池化和连接。但是没有人对它们做过比较。
这篇论文里,我们在Seq2Seq的对话系统上对上下文模型做研究。我们关注两个问题:

  • 我们怎么样才能更好的利用上下文?
  • 上下文对神经对话系统的影响是什么?

未分层模型通常使用经典的encode-decoder框架,我们实验中用的是RNN+GRU,decode时beamsearch大小为5。分层模型有三种方法结合上下文和查询:池化、连接、连续整合。


但是我们发现加权后的实验结果还不如直接使用最后一个隐含层的结果,我们猜测是因为这个RNN不是很长,所以对前面的结果保存的比较好,所以我们实验直接使用最后一个隐含层作为输出。
衡量上下文和查询的相关程度:
\[{s_{ {c_i}}} = sim({c_i},q) = \frac{ { {e_{c_i} } \cdot {e_q}}}{ {\left\| {e_{c_i}} \right\| \cdot \left\| { {e_q}} \right\|}}\]
其中:\[{e_{c_i}} = \sum\limits_{w \in {c_i}} {e_w} ,{e_q} = \sum\limits_{w’ \in {c_i}} {e_w’} \]
归一化:
\[\alpha _{c_i} = \frac{ {\exp ({s_{ {c_i}}})}} { {\sum\nolimits_{j = 0}^n {\exp ({s_{ {c_i}}})} + \exp ({s_q})}}\]
\[{ {\alpha _q} = \frac{ {\exp ({s_q})}}{ {\sum\nolimits_{j = 0}^n {\exp ({s_{ {c_i}}})} + \exp ({s_q})}}}\]
两种连接方法:

  • WSeq(sum):
    \[{v_{enc}} = \sum\limits_{i = 0}^n { {\alpha _{ {c_i}}}{h_{ {c_i}}} + {\alpha _q}{h_q}} \]
  • WSeq(concat):
    \[{v_{enc}} = \left[ { {\alpha _{ {c_0}}}{h_{ {c_0}}}; \ldots ;{\alpha _{ {c_n}}}{h_{ {c_n}}};{\alpha _q}{h_q}} \right]\]

实验结果


我们在百度贴吧问答数据集上做实验。

实验结果分析


虽然BLEU不适合用来度量对话系统这种开放式的系统。但是我们没有足够的人力物力来对结果一一标注,所以还是采用BLEU。下面回到最开始提出的两个问题。

  • 我们怎么样才能更好的利用上下文?
    首先我们发现采用上下文实验结果的确比不采用的更好了。然后分层的模型结果比不分层的更好。我们猜测原因可能是对话系统不同于其他NLP任务,对话系统句子可能出自不同的人。让每个上下文保持独立很重要,而不是简单的池化结合到一起,所以直接连接起来效果更好。上下文和查询相关性对系统有帮助。
  • 上下文对神经对话系统的影响是什么?

    可以看出,采用上下文的模型能产生更长、更有意义、更多样性的回答。我们还发现了一个有趣的现象:一个encode-decoder模型如果想要生成有意义的回答,必须要足够多的有意义的信息提供给它。这解释了为什么seq2seq在其他NLP任务表现得很好,但是在对话系统表现得不好。

   转载规则


《How to Make Context More Useful? An Empirical Study on Context-Aware Neural Conversational Models》 韦阳 采用 知识共享署名 4.0 国际许可协议 进行许可。
 上一篇
吴恩达深度学习公开课第一周学习笔记 吴恩达深度学习公开课第一周学习笔记
关注公众号【算法码上来】,每日算法干货马上就来! 保了研暂时也没什么事干,从今天开始学一学吴恩达最近发布的深度学习课程。顺便在博客上做做笔记,梳理一下。 coursera上面的课程要钱,还贼贵。所以我就直接在网易公开课上面看免费版的了
2017-09-19
下一篇 
保研第一,我还是选择留在了本校 保研第一,我还是选择留在了本校
关注公众号【算法码上来】,每日算法干货马上就来! 保研去哪?其实我刚开始也纠结过。看到其他同学忙着申报各大名校,我也曾经动摇过,但是现在却没什么感觉了。很多人不理解为什么第一不去试试清北复交,我承认,这些学校是优势很大,毕竟还是高了一
2017-09-19
  目录