一种三维群目标轨迹匹配方法和装置

    公开(公告)号:CN116993783A

    公开(公告)日:2023-11-03

    申请号:CN202311060006.3

    申请日:2023-08-22

    Abstract: 本发明公开了一种三维群目标轨迹匹配方法,属于计算机视觉技术领域,所述方法包括:从两个视角下采集同一场景群目标对应的视图一轨迹和视图二轨迹之间的基础矩阵;根据基础矩阵计算视图一轨迹和视图二轨迹对应的极线距离代价向量,以构建代价向量矩阵,进而从视图一轨迹和视图二轨迹中找出多对匹配成功的二维轨迹,最终得到分割轨迹集合;对分割轨迹集合进行重关联,以实现三维群目标更精准的轨迹匹配。本发明以二维跟踪轨迹为基础,基于极线距离代价从视图一轨迹和视图二轨迹中找出多对匹配成功的二维轨迹,最终得到分割轨迹集合,进而重关联从而实现三维群目标的轨迹匹配,解决了三维群目标跟踪中轨迹断裂,目标错配等问题。

    一种基于识别特征保持的超分辨率重建方法及装置

    公开(公告)号:CN116681586A

    公开(公告)日:2023-09-01

    申请号:CN202310572786.3

    申请日:2023-05-19

    Abstract: 本发明公开了一种基于识别特征保持的超分辨率重建方法及装置。该方法包括:将低分辨率图像输入基于空间注意力机制构建的生成器中得到超分辨率重建图像;将带有类别标签的高分辨率图像,输入到特征网络进行预训练;分别将高分辨率图像和超分辨率重建图像输入特征提取网络中,提取特征并计算特征损失和分类损失,分别计算生成器的损失和判别器的损失;根据特征损失、分类损失和生成器的损失得到总损失,并根据总损失训练生成器,得到训练完成的重建网络模型;将目标低分辨率图像输入到重建网络模型中得到重建的目标超分辨率图像。实现了构建更为精准的重建网络,增强对图像中目标的重建效果。

    基于多注意力的视频超分辨率重建网络构建方法及其应用

    公开(公告)号:CN116993585A

    公开(公告)日:2023-11-03

    申请号:CN202310866905.6

    申请日:2023-07-14

    Abstract: 本发明公开了基于多注意力的视频超分辨率重建网络构建方法及其应用,属于视频超分辨率重建技术领域,包括:建立待训练的超分辨率重建网络,并利用低分辨率的视频帧序列及其对应的高分辨率视频帧序列构建的超分辨率数据集进行训练、验证和测试;网络包括:对齐模块,用于对视频帧序列进行光流估计;传播模块,用于使光流信息进行前、后向传播后与对应视频帧拼接,然后进行特征提取,得到待传播特征;聚合模块,用于基于空间注意力和时间注意力对待传播特征进行聚合;上采样重建模块,用于对聚合特征图上采样;以及超分辨图像生成模块,用于将各视频帧与上采样结果融合为超分辨率图像。本发明能够提高面向海面目标的视频超分辨率重建质量。

    一种基于边缘提取的异谱图像配准方法

    公开(公告)号:CN117078726A

    公开(公告)日:2023-11-17

    申请号:CN202310839562.4

    申请日:2023-07-10

    Abstract: 本发明公开了一种基于边缘提取的异谱图像配准方法,属于图像配准领域,包括:对红外图像的源图像和可见光图像的源图像分别进行边缘提取,得到两幅边缘图像,将其中一幅作为参考图像,另一幅作为待配准图像;将参考图像划分为多个互不重叠的子图像块,在各子图像块内,从指定大小的所有区域中选取包含边缘点数量最多的区域作为对应子图像块内的子边缘模板,将各子边缘模板按位置组合得到匹配边缘模板;利用匹配边缘模板对待配准图像进行匹配,根据匹配结果计算待配准图像到参考图像的变换矩阵;根据变换矩阵,对待配准图像对应的源图像中的各像素进行位置变换,完成图像配准。本发明能够在保证配准精度的同时兼具良好的配准速度。

Patent Agency Ranking