基于BERT预训练模型的中文文本摘要抽取方法及装置

    公开(公告)号:CN114428852B

    公开(公告)日:2024-09-13

    申请号:CN202210032641.X

    申请日:2022-01-12

    Abstract: 本发明提供一种基于BERT预训练模型的中文文本摘要抽取方法及装置,所述方法包括:获取待抽取文本并基于LDA融合算法待抽取文本的关键词;将所述待抽取文本输入至BERT预训练语言模型中,得到所述待抽取文本固定维度的句向量;其中,所述BERT预训练语言模型通过对多个文本样本以及对应的样本句向量生成结果训练获取;对所述句向量进行权重计算并基于所述关键词进行权重修正,得到所述待抽取文本的文本摘要。本发明能够通过关键词反映文本的上下文语义,从而提高文本摘要的质量。

    基于BERT预训练模型的中文文本摘要抽取方法及装置

    公开(公告)号:CN114428852A

    公开(公告)日:2022-05-03

    申请号:CN202210032641.X

    申请日:2022-01-12

    Abstract: 本发明提供一种基于BERT预训练模型的中文文本摘要抽取方法及装置,所述方法包括:获取待抽取文本并基于LDA融合算法待抽取文本的关键词;将所述待抽取文本输入至BERT预训练语言模型中,得到所述待抽取文本固定维度的句向量;其中,所述BERT预训练语言模型通过对多个文本样本以及对应的样本句向量生成结果训练获取;对所述句向量进行权重计算并基于所述关键词进行权重修正,得到所述待抽取文本的文本摘要。本发明能够通过关键词反映文本的上下文语义,从而提高文本摘要的质量。

Patent Agency Ranking