帮助 本站公告
您现在所在的位置:网站首页 > 知识中心 > 文献详情
文献详细Journal detailed

基于深度学习的候选答案句选择研究

导  师: 刘广聪; 何立佳

授予学位: 硕士

作  者: ();

机构地区: 广东工业大学

摘  要: 问答系统通常由问题分析模块、检索模块、答案抽取和答案选择四个部分组成。答案选择是一个典型问答系统的关键组成部分,答案选择问题可以表述如下:给出问题q和候选答案?a1,a 2,...,as?,我们的目标是找到最佳候选答案ak,其中1?k?s。答案句是具有任意长度的标记序列,并且问题可以对应于多个基本正确的答案句。传统方法在研究答案选择任务的时候通常使用特征工程以及语言工具,对句子分词,句子词性标注、语法分析、句法分析,人工提取文本特征,然后计算答案与问题的语义相似度,并依据相似度进行排序选取出与问题最相似的答案句作为问题的最终答案,这些方法虽然取得了一定的效果,具有这几点不足:(1)人工提取文本特征具有人的主观性,不能很好很全面客观的理解所有的问题;(2)要想获得好的文本特征,就需要人工不断调整特征提取策略;(3)使用特征工程以及语言工具会带来的系统复杂性的影响。相比使用特征工程以及语言工具,深度学习能够主动学习文本中的语义信息,更好的提取文本的特征。本文针对问答系统中答案选择任务提出了一个不需要任何语言工具或外部资源的深度学习框架,首先提出基本模型,长短期记忆网络(LSTM)模型来构建问题和答案的嵌入,在此基础上引入Attention机制,这样能更好的学习问题与答案的特征表示,在本文中我们将该模型称为Attention-biLSTM,该模型仍然具有局限性,因为该模型的注意力每次只能关注嵌入的问题和一个候选答案,不能同时关注所有候选答案以及所有候选答案中的词的信息,针对该问题,本文提出了一种复杂的注意机制来增强这种设计,提出的注意机制增加了候选答案的全局特征表示,结合了答案中所有单词的信息。将答案特定部分的局部信息与整个问题的全局表示相结合。实验分析表明本文的模型优于其他模型,而且改进后Attention-biLSTM模型的实验效果表明明显优于Attention-biLSTM。在使用最大池化的操作下,与基本模型biLSTM相比,Attention-biLSTM与改进的Attention-biLSTM在测试集1上分别提高了5.6%和7.8%,在测试集2上分别提高了4.2%和7%。更多还原

关 键 词: [3956937]问答系统 答案选择 LSTM 注意力机制

分 类 号: [TP391.1;TP18]

领  域: [] []

相关作者

相关机构对象

相关领域作者