多联结注意力的阅读理解模型、系统及方法

    公开(公告)号:CN109657226B

    公开(公告)日:2022-12-27

    申请号:CN201811105566.5

    申请日:2018-09-20

    Abstract: 本公开提供了一种多联结注意力的阅读理解模型,包括:编码层,包括双层双向循环门控单元——DbBiGRU,其输入是多个离散的词向量,编码过后,每个词向量中包含上下文的信息;交互层,由三组DbBiGRU与注意力机制——Attention组成,通过多次交互,得到包含着问题信息的文章编码;预测层,包含着一个指针网络——PtrNet,经过编码与交互,得到了包含着问题信息的文章的一个表示,在此基础上,PtrNet预测出答案在文中的起始位置和终止位置。本公开解决了神经网络模型的复杂度过高及中文适应性问题。

    多联结注意力的阅读理解模型、系统及方法

    公开(公告)号:CN109657226A

    公开(公告)日:2019-04-19

    申请号:CN201811105566.5

    申请日:2018-09-20

    Abstract: 本公开提供了一种多联结注意力的阅读理解模型,包括:编码层,包括双层双向循环门控单元——DbBiGRU,其输入是多个离散的词向量,编码过后,每个词向量中包含上下文的信息;交互层,由三组DbBiGRU与注意力机制——Attention组成,通过多次交互,得到包含着问题信息的文章编码;预测层,包含着一个指针网络——PtrNet,经过编码与交互,得到了包含着问题信息的文章的一个表示,在此基础上,PtrNet预测出答案在文中的起始位置和终止位置。本公开解决了神经网络模型的复杂度过高及中文适应性问题。

Patent Agency Ranking