-
公开(公告)号:CN118116053A
公开(公告)日:2024-05-31
申请号:CN202410267568.3
申请日:2024-03-08
Applicant: 北京邮电大学
IPC: G06V40/16 , G06V10/774
Abstract: 本公开提供了一种人脸重定向模型、模型训练方法及装置,该方法包括:编码器,用于对人脸图像进行特征提取,得到人脸特征;无关属性分解模块,用于对所述人脸特征进行特征提取,得到对应于所述人脸特征的细节特征;所述细节特征包括身份特征、视线特征和头部特征;交叉属性分离模块,用于对所述细节特征中的目标特征进行角度旋转;所述目标特征为视线特征或头部特征;解码器,用于基于角度旋转后的细节特征生成人脸图像。本公开提供的人脸重定向模型、模型训练方法及装置可以提高视线估计算法的样本集质量。
-
公开(公告)号:CN114186568B
公开(公告)日:2022-08-02
申请号:CN202111541714.X
申请日:2021-12-16
Applicant: 北京邮电大学
Abstract: 本发明公开了一种基于关系编码和层次注意力机制的图像段落描述方法,方法模型由关系编码模块和层次注意解码模块组成。关系编码模块通过两个编码器捕获编码空间关系信息和语义关系信息,其中语义关系编码时通过训练有监督的语义分类器来学习语义关系的先验知识。层次注意解码模块的层次注意力使用带有关系门和视觉门的层次注意力来动态的融合关系信息和物体区域特征,关系门用于在空间关系信息和语义关系信息之间切换,视觉门用于决定是否嵌入使用视觉信息,模型采用从粗粒度区域到细粒度的空间和语义关系的策略在段落生成过程中融合视觉信息。通过在斯坦福段落描述数据集上的大量实验表明,本发明方法在本领域的多个评价指标上显著优于现有方法。
-
公开(公告)号:CN109165309B
公开(公告)日:2020-10-16
申请号:CN201810885541.5
申请日:2018-08-06
Applicant: 北京邮电大学
IPC: G06F16/55 , G06F16/583
Abstract: 本发明实施例提供了负例训练样本采集方法和模型训练方法。负例训练样本采集方法包括:对表示向量进行聚类,确定目标向量所属的第一聚类及中心,从而确定候选聚类的目标概率,从候选向量中抽取多个第二聚类,并从每个第二聚类中获取一个负例训练样本。模型训练方法包括:确定多组训练样本;基于训练样本对初始图像检索模型进行训练,在迭代到一定次数时,若模型没有训练完成,重新确定训练样本继续训练,直至模型训练完成。与现有技术相比,应用本发明实施例提供的方案,采集负例训练样本时,可以在兼顾各个不同难度水平的负例训练样本的同时,优先采集“难”的负例训练样本,进而提高基于负例训练样本训练得到的图像检索模型的准确率。
-
公开(公告)号:CN104462485B
公开(公告)日:2017-12-05
申请号:CN201410797791.5
申请日:2014-12-18
Applicant: 北京邮电大学
IPC: G06F17/30
Abstract: 本发明提出了一种基于对应的深层信念网络的跨模态检索方法,该方法包括:利用特征提取方法分别获得检索目标与检索库中每一个检索成员的初级向量;检索目标的初级向量分别与检索库中每一个检索成员的初级向量,通过对应的深层信念网络获得检索目标的高级向量和检索库中每一个检索成员的高级向量;利用检索目标的高级向量和检索库中每一个检索成员的高级向量计算检索目标与检索库中每一个检索成员的距离;将检索库中与检索目标距离最近的至少一个检索成员确定为与检索目标匹配的对象。
-
公开(公告)号:CN106225778A
公开(公告)日:2016-12-14
申请号:CN201610563243.5
申请日:2016-07-18
Applicant: 北京邮电大学
CPC classification number: G01C11/34 , G01C11/08 , G01C2011/36
Abstract: 本发明公开了一种多介质传播中随机波动的视觉定位研究。在工程应用中,光在多介质的传播中易产生偏差,介质混杂且随机波动易造成多介质下的视觉定位不准确。本文探索双目相机在多介质下的视觉定位技术。分为如下步骤:步骤一、图像坐标系中畸变系数的确定;步骤二、图像坐标系到相机坐标系的转换;步骤三、世界坐标系中相机间的相对位姿;步骤四、相机坐标系到世界坐标系的转换;步骤五、介质转换条件下的视觉定位;步骤六、基于云模型的视觉定位随机性描述。
-
公开(公告)号:CN112560486B
公开(公告)日:2025-03-04
申请号:CN202011337566.5
申请日:2020-11-25
Applicant: 国网江苏省电力有限公司电力科学研究院 , 国家电网有限公司 , 北京邮电大学 , 国网江苏省电力有限公司 , 江苏省电力试验研究院有限公司
IPC: G06F40/295 , G06N3/045
Abstract: 本发明公开了一种基于多层神经网络的电力实体识别方法、存储介质和设备,将待识别的电力语料输入至预先构建的BERT电力实体识别模型中,得到电力实体标签的哈夫曼编码,通过哈夫曼编码映射得到实体标签,进而得到识别出的实体。通过语言模型训练语料对BERT语言模型进行预训练;对电力语料数据标注电力实体标签,构建电力实体识别语料;根据电力实体标签在电力实体识别语料中的数量构建电力实体标签的哈夫曼编码;在预训练得到的BERT语言模型后增加分类层构成BERT电力实体识别模型,通过电力实体识别语料对BERT电力实体识别模型进行再次训练,得到训练好的BERT电力实体识别模型。提高了电力领域中文命名实体识别的精度。
-
公开(公告)号:CN113781598B
公开(公告)日:2023-06-30
申请号:CN202111238938.3
申请日:2021-10-25
Applicant: 北京邮电大学
IPC: G06T11/00 , G06F40/284 , G06F40/211 , G06V10/44 , G06V10/80
Abstract: 本申请公开了一种图像生成模型的训练方法和设备以及图像生成方法,其中训练方法包括:基于样本数据中的图像描述文本生成句子向量和词向量;将初始高斯噪声输入模型的无条件对抗子网络生成第一图像;基于第一图像计算非条件对抗损失函数值;将第一图像和第一句子的句子向量输入模型的句子级别对抗子网络生成第二图像;基于第二图像和句子向量计算句子级别的条件对抗损失函数值;第一句子为图像描述文本对应的句子;将第二图像和第一句子的词向量,输入模型的词级别对抗子网络生成第三图像;基于第三图像、句子向量和词向量,计算词级别的条件对抗损失函数值;利用上述损失函数值对图像生成模型的参数更新。本申请可以保证生成图像与文本的一致性。
-
公开(公告)号:CN113781598A
公开(公告)日:2021-12-10
申请号:CN202111238938.3
申请日:2021-10-25
Applicant: 北京邮电大学
IPC: G06T11/00 , G06F40/284 , G06F40/211 , G06K9/62
Abstract: 本申请公开了一种图像生成模型的训练方法和设备以及图像生成方法,其中训练方法包括:基于样本数据中的图像描述文本生成句子向量和词向量;将初始高斯噪声输入模型的无条件对抗子网络生成第一图像;基于第一图像计算非条件对抗损失函数值;将第一图像和第一句子的句子向量输入模型的句子级别对抗子网络生成第二图像;基于第二图像和句子向量计算句子级别的条件对抗损失函数值;第一句子为图像描述文本对应的句子;将第二图像和第一句子的词向量,输入模型的词级别对抗子网络生成第三图像;基于第三图像、句子向量和词向量,计算词级别的条件对抗损失函数值;利用上述损失函数值对图像生成模型的参数更新。本申请可以保证生成图像与文本的一致性。
-
公开(公告)号:CN110135441A
公开(公告)日:2019-08-16
申请号:CN201910414090.1
申请日:2019-05-17
Applicant: 北京邮电大学
Abstract: 本发明实施例提供了一种图像的文本描述方法及装置,方法包括:获取待描述图像,提取待描述图像的多个区域特征和一个全局特征;将区域特征、全局特征输入预先训练的文本描述神经网络中的句子级子网络,得到针对每个待生成句子的句子指导向量;将句子指导向量输入文本描述神经网络中的词汇子网络,得到描述文本;由于采用句子级子网络和词汇级子网络的分层结构,能够捕捉段落中句子之间的连贯性,提高了生成的文本段落中句子之间的连贯性,此外,相较于现有的基于循环神经网络的方案,降低了训练过程的计算复杂度。
-
公开(公告)号:CN104216983B
公开(公告)日:2019-03-01
申请号:CN201410441434.5
申请日:2014-09-01
Applicant: 北京邮电大学 , 无锡北邮感知技术产业研究院有限公司
Abstract: 本发明公开了一种基于采集搜索引擎数据的隐私信息评级方法,包括以下步骤:第一步从搜索引擎采集数据确定每个隐私信息的普遍性分值U,第二步从搜索引擎采集数据确定每个隐私信息的敏感性分值S,第三步根据U×S计算结果确定隐私信息的安全等级。本发明提供的评级方法使用的数据从搜索引擎采集,数据来源于使用搜索引擎的庞大的用户群,因此评级结果不依赖于个人的经验或意见,评级结果具有公正性;同时本发明提供的隐私信息评级方法不针对特定的隐私内容,既可以评定全体隐私信息,也可用于评定应用系统中有限数量的隐私信息。
-
-
-
-
-
-
-
-
-