前景引导和纹理聚焦的行人重识别模型建立方法及其应用

    公开(公告)号:CN112163498B

    公开(公告)日:2022-05-27

    申请号:CN202011004996.5

    申请日:2020-09-23

    Abstract: 本发明公开了前景引导和纹理聚焦的行人重识别模型建立方法及其应用,属于行人重识别领域,包括:以预训练的图像分类网络为基础网络,将基础网络的输出分支作为全局分支,在基础网络的最后一个特征层后引入包含BottleNeck模块的局部分支,在倒数第二个特征层后引入包含前景注意力模块的注意力分支和纹理聚焦解码器,得到待训练网络;以纹理聚焦解码器作为待训练网络的解码器部分,以全局分支、局部分支和注意力分支作为待训练网络的非解码器部分,对非解码器部分和解码器部分进行交替训练;训练完成后,移除待训练网络中的纹理聚焦解码器,并加入特征输出层,得到基于前景引导和纹理聚焦的行人重识别模型。本发明能够提高行人重识别的鲁棒性和准确性。

    一种融合空洞卷积和边缘信息的实例分割方法

    公开(公告)号:CN110348445B

    公开(公告)日:2021-07-27

    申请号:CN201910490237.5

    申请日:2019-06-06

    Abstract: 本发明公开了一种融合空洞卷积和边缘信息的实例分割方法,包括:建立包括特征金字塔提取网络、感兴趣区域提取网络、初步分割网络和边缘检测网络的实例分割模型;其中,特征金字塔提取网络包括第一特征提取网络、第二特征提取网络和混合空洞卷积层;混合空洞卷积层,用于对第一特征提取网络和第二特征提取网络输出的特征金字塔的顶层特征图进行混合空洞卷积;初步分割网络,用于对感兴趣区域提取网络输出的感兴趣区域进行分类、位置回归和分割;边缘检测网络,用于对分割结果进行边缘检测,得到最终的图像分割结果;采用训练好的实例分割模型进行实例分割;本发明的方法能够避免特征信息丢失,同时改善图像边缘拟合效果,提高了分割精度。

    一种目标空间定位方法
    3.
    发明公开

    公开(公告)号:CN110599489A

    公开(公告)日:2019-12-20

    申请号:CN201910792381.4

    申请日:2019-08-26

    Abstract: 本发明公开了一种目标空间定位方法,包括:同时采集两张不同视角的目标图像,并通过双目视觉空间定位,得到其中一张图像中各像素点三维坐标集;基于实例分割,对该张图像中的目标分类回归,得到目标二值掩码集;基于各像素点三维坐标集和目标二值掩码集,通过像素点坐标映射并融合,得到该张图像中的目标三维坐标,实现目标空间定位。本发明基于双目视觉空间定位,获取用以描述目标真实尺度和空间定位信息的稀疏三维坐标;采用深度学习方法,对感兴趣的特定类别目标进行单目实例分割,精确定义像素的语义属性。最后基于三维坐标和实例分割结果的耦合,在像素坐标的连接关系下,进行目标空间定位,使得稀疏分散的三维坐标稠密化,提高定位准确率。

    一种行人遮挡及朝向检测方法

    公开(公告)号:CN111639602A

    公开(公告)日:2020-09-08

    申请号:CN202010481781.6

    申请日:2020-05-29

    Abstract: 本发明公开了一种行人遮挡及朝向检测方法,包括以下步骤:S11、采用行人检测模型对待检测图像进行检测,得到行人检测框,根据行人检测框将行人目标从待检测图像中剪裁出来,得到单个的行人目标图像,并对行人目标图像中的行人关键点进行检测,得到待检测图像上各关键点的置信度;S12、根据人体结构中关键点与部位之间的关系,结合所得各关键点的置信度,得到行人各部位的遮挡预测分数;S13、分别将行人各部位的遮挡预测分数与预设部位遮挡阈值进行比较,判断行人各部位是否被遮挡;该方法通过对行人各部位的遮挡状态进行判断,并不依赖于行人可视部分的面积,不仅遮挡检测结果的准确性较高,而且也可以准确的检测出遮挡的部位。

    一种基于帧间关系的视频实例分割方法及系统

    公开(公告)号:CN110443173A

    公开(公告)日:2019-11-12

    申请号:CN201910681950.8

    申请日:2019-07-26

    Abstract: 本发明公开了一种基于帧间关系的视频实例分割方法及系统,属于视频处理领域,包括:通过端到端的训练,得到目标Mask R-CNN网络和目标FlowNet网络;依次获取待处理视频中的每一帧图像,并判断其类型,若为关键帧,则利用目标Mask R-CNN网络进行实例分割,否则,获得对应的关键帧,并利用视频实例分割模型进行实例分割;视频实例分割模型,利用目标Mask R-CNN网络对关键帧进行实例分割;视频实例分割模型,还利用目标FlowNet网络计算关键帧与非关键帧之间的流场和尺度场,并根据流场和尺度场将关键帧的金字塔特征传播到非关键帧,以及根据非关键帧的特征对非关键帧进行实例分割。本发明能够在完成高质量实例分割的同时提升视频实例分割的速度。

    基于三重卷积网络和感知干扰学习的目标跟踪方法和系统

    公开(公告)号:CN110349176A

    公开(公告)日:2019-10-18

    申请号:CN201910582872.6

    申请日:2019-06-28

    Abstract: 本发明公开了一种基于三重卷积网络和感知干扰学习的目标跟踪方法和系统,属于图像处理和机器视觉中的目标跟踪研究领域,方法包括:将待跟踪视频输入三重卷积网络得到目标跟踪结果;三重卷积网络的训练包括:构建三重卷积网络,从数据集中获取正样本对与负样本对得到训练集;利用训练集训练三重卷积网络,训练集中每个样本对的两张图像分别输入模板分支与检测分支,或者分别输入第一帧分支与检测分支;模板分支与第一帧分支分别提取表观模型特征图,将两个表观模型特征图分别与检测分支的特征图进行交叉相关,得到两个响应图;分别计算两个响应图的损失进行反向传播,由此得到训练好的三重卷积网络。本发明方法目标跟踪准确性较高。

    一种融合空洞卷积和边缘信息的实例分割方法

    公开(公告)号:CN110348445A

    公开(公告)日:2019-10-18

    申请号:CN201910490237.5

    申请日:2019-06-06

    Abstract: 本发明公开了一种融合空洞卷积和边缘信息的实例分割方法,包括:建立包括特征金字塔提取网络、感兴趣区域提取网络、初步分割网络和边缘检测网络的实例分割模型;其中,特征金字塔提取网络包括第一特征提取网络、第二特征提取网络和混合空洞卷积层;混合空洞卷积层,用于对第一特征提取网络和第二特征提取网络输出的特征金字塔的顶层特征图进行混合空洞卷积;初步分割网络,用于对感兴趣区域提取网络输出的感兴趣区域进行分类、位置回归和分割;边缘检测网络,用于对分割结果进行边缘检测,得到最终的图像分割结果;采用训练好的实例分割模型进行实例分割;本发明的方法能够避免特征信息丢失,同时改善图像边缘拟合效果,提高了分割精度。

    一种行人遮挡及朝向检测方法

    公开(公告)号:CN111639602B

    公开(公告)日:2022-04-12

    申请号:CN202010481781.6

    申请日:2020-05-29

    Abstract: 本发明公开了一种行人遮挡及朝向检测方法,包括以下步骤:S11、采用行人检测模型对待检测图像进行检测,得到行人检测框,根据行人检测框将行人目标从待检测图像中剪裁出来,得到单个的行人目标图像,并对行人目标图像中的行人关键点进行检测,得到待检测图像上各关键点的置信度;S12、根据人体结构中关键点与部位之间的关系,结合所得各关键点的置信度,得到行人各部位的遮挡预测分数;S13、分别将行人各部位的遮挡预测分数与预设部位遮挡阈值进行比较,判断行人各部位是否被遮挡;该方法通过对行人各部位的遮挡状态进行判断,并不依赖于行人可视部分的面积,不仅遮挡检测结果的准确性较高,而且也可以准确的检测出遮挡的部位。

    一种基于帧间关系的视频实例分割方法及系统

    公开(公告)号:CN110443173B

    公开(公告)日:2021-08-20

    申请号:CN201910681950.8

    申请日:2019-07-26

    Abstract: 本发明公开了一种基于帧间关系的视频实例分割方法及系统,属于视频处理领域,包括:通过端到端的训练,得到目标Mask R‑CNN网络和目标FlowNet网络;依次获取待处理视频中的每一帧图像,并判断其类型,若为关键帧,则利用目标Mask R‑CNN网络进行实例分割,否则,获得对应的关键帧,并利用视频实例分割模型进行实例分割;视频实例分割模型,利用目标Mask R‑CNN网络对关键帧进行实例分割;视频实例分割模型,还利用目标FlowNet网络计算关键帧与非关键帧之间的流场和尺度场,并根据流场和尺度场将关键帧的金字塔特征传播到非关键帧,以及根据非关键帧的特征对非关键帧进行实例分割。本发明能够在完成高质量实例分割的同时提升视频实例分割的速度。

    基于三重卷积网络和感知干扰学习的目标跟踪方法和系统

    公开(公告)号:CN110349176B

    公开(公告)日:2021-04-06

    申请号:CN201910582872.6

    申请日:2019-06-28

    Abstract: 本发明公开了一种基于三重卷积网络和感知干扰学习的目标跟踪方法和系统,属于图像处理和机器视觉中的目标跟踪研究领域,方法包括:将待跟踪视频输入三重卷积网络得到目标跟踪结果;三重卷积网络的训练包括:构建三重卷积网络,从数据集中获取正样本对与负样本对得到训练集;利用训练集训练三重卷积网络,训练集中每个样本对的两张图像分别输入模板分支与检测分支,或者分别输入第一帧分支与检测分支;模板分支与第一帧分支分别提取表观模型特征图,将两个表观模型特征图分别与检测分支的特征图进行交叉相关,得到两个响应图;分别计算两个响应图的损失进行反向传播,由此得到训练好的三重卷积网络。本发明方法目标跟踪准确性较高。

Patent Agency Ranking