一种PointTrack框架下基于窗函数的点云采样方法

    公开(公告)号:CN112561950B

    公开(公告)日:2022-12-13

    申请号:CN202011547135.1

    申请日:2020-12-24

    Applicant: 福州大学

    Abstract: 本发明涉及一种PointTrack框架下基于窗函数的点云采样方法,包括以下步骤:步骤S1:获取视频图像帧中所有目标的2D边界框,并输入到神经网络中进行分割,得到对应的前景与背景;步骤S2:根据分割结果对边界框在上下左右四个方向进行扩展,并将扩展后割的结果使用窗函数进行点云采样,分别得到前景和背景相对应的2D点云采样结果;步骤S3:将得到的前景点云进行整合,计算对应的颜色特征向量和形状特征向量,将得到的背景点云进行整合,并计算对应的颜色特征向量、形状特征向量以及类别向量,最终将得到的向量串联输入到PointTrak模型中。本发明能够使用窗函数更好的对点云采样进行控制,可以让采样的点更偏向于反应轮廓信息或者颜色信息,提高PointTrack多目标跟踪效果。

    一种PointTrack框架下基于窗函数的点云采样方法

    公开(公告)号:CN112561950A

    公开(公告)日:2021-03-26

    申请号:CN202011547135.1

    申请日:2020-12-24

    Applicant: 福州大学

    Abstract: 本发明涉及一种PointTrack框架下基于窗函数的点云采样方法,包括以下步骤:步骤S1:获取视频图像帧中所有目标的2D边界框,并输入到神经网络中进行分割,得到对应的前景与背景;步骤S2:根据分割结果对边界框在上下左右四个方向进行扩展,并将扩展后割的结果使用窗函数进行点云采样,分别得到前景和背景相对应的2D点云采样结果;步骤S3:将得到的前景点云进行整合,计算对应的颜色特征向量和形状特征向量,将得到的背景点云进行整合,并计算对应的颜色特征向量、形状特征向量以及类别向量,最终将得到的向量串联输入到PointTrak模型中。本发明能够使用窗函数更好的对点云采样进行控制,可以让采样的点更偏向于反应轮廓信息或者颜色信息,提高PointTrack多目标跟踪效果。

    一种匈牙利算法下基于空间约束的成本矩阵优化方法

    公开(公告)号:CN112528730A

    公开(公告)日:2021-03-19

    申请号:CN202011128387.0

    申请日:2020-10-20

    Applicant: 福州大学

    Abstract: 本发明涉及一种匈牙利算法下基于空间约束的成本矩阵优化方法,首先获取保存好的所有被跟踪目标的外观特征向量集合,然后获取该帧中所有行人检测的结果,并将他们结合构造初始的成本矩阵;接着根据之前被跟踪的目标的信息利用卡尔曼滤波来估计该目标的当前位置,根据估计位置和检测结果的相对关系来修改成本矩阵的权重,用于后续的指派任务;最后利用匈牙利算法获得成本矩阵的最优指派,据此将检测结果进行分配,并且更新和保存被跟踪目标的外貌特征。本发明能够根据视频场景来有效改善匈牙利算法的匹配效果,去除一些不合理的匹配。

    基于头部躯干特征进行多目标跟踪的方法

    公开(公告)号:CN112200076A

    公开(公告)日:2021-01-08

    申请号:CN202011076008.8

    申请日:2020-10-10

    Applicant: 福州大学

    Inventor: 柯逍 叶宇 李悦洲

    Abstract: 本发明涉及一种基于头部躯干特征进行多目标跟踪的方法,包括以下步骤:步骤S1:获取视频中行人检测的结果,并对结果进行筛选,删除错误的检测结果;步骤S2:对筛选后的检测结果进行预处理后,输入到人体关键点检测网络中,得到所有的人体关键点;步骤S3:对得到的每个行人的关键点进行筛选,选取头部以及肩膀的关键点进行组合,获得头部躯干特征;步骤S4:将得到的单个行人的头部躯干特征输入到跟踪器中进行初始化,进而对目标进行跟踪。本发明能够有效地提取检测框中的头部躯干特征,使得跟踪器在初始化的时候获取的有效信息占比最大化。

    基于头部躯干特征进行多目标跟踪的方法

    公开(公告)号:CN112200076B

    公开(公告)日:2023-02-21

    申请号:CN202011076008.8

    申请日:2020-10-10

    Applicant: 福州大学

    Inventor: 柯逍 叶宇 李悦洲

    Abstract: 本发明涉及一种基于头部躯干特征进行多目标跟踪的方法,包括以下步骤:步骤S1:获取视频中行人检测的结果,并对结果进行筛选,删除错误的检测结果;步骤S2:对筛选后的检测结果进行预处理后,输入到人体关键点检测网络中,得到所有的人体关键点;步骤S3:对得到的每个行人的关键点进行筛选,选取头部以及肩膀的关键点进行组合,获得头部躯干特征;步骤S4:将得到的单个行人的头部躯干特征输入到跟踪器中进行初始化,进而对目标进行跟踪。本发明能够有效地提取检测框中的头部躯干特征,使得跟踪器在初始化的时候获取的有效信息占比最大化。

    一种匈牙利算法下基于空间约束的成本矩阵优化方法

    公开(公告)号:CN112528730B

    公开(公告)日:2022-06-10

    申请号:CN202011128387.0

    申请日:2020-10-20

    Applicant: 福州大学

    Abstract: 本发明涉及一种匈牙利算法下基于空间约束的成本矩阵优化方法,首先获取保存好的所有被跟踪目标的外观特征向量集合,然后获取该帧中所有行人检测的结果,并将他们结合构造初始的成本矩阵;接着根据之前被跟踪的目标的信息利用卡尔曼滤波来估计该目标的当前位置,根据估计位置和检测结果的相对关系来修改成本矩阵的权重,用于后续的指派任务;最后利用匈牙利算法获得成本矩阵的最优指派,据此将检测结果进行分配,并且更新和保存被跟踪目标的外貌特征。本发明能够根据视频场景来有效改善匈牙利算法的匹配效果,去除一些不合理的匹配。

    一种基于空间注意力特征聚合的视觉跟踪方法

    公开(公告)号:CN112258557B

    公开(公告)日:2022-06-10

    申请号:CN202011149132.2

    申请日:2020-10-23

    Applicant: 福州大学

    Inventor: 柯逍 李悦洲 叶宇

    Abstract: 本发明涉及一种基于空间注意力特征聚合的视觉跟踪方法,包括步骤:S1:获取视频或图像序列的首帧标注信息,将首帧图像输入孪生网络跟踪架构的模板分支,对区域目标提取浅层特征、中间层特征、深层特征;其中孪生网络跟踪架构包括模板分支与搜索分支;S2:构造空间注意力掩模,计算掩模运算后的特征;S3:对浅层特征计算精确性质量值,对中间层特征计算鲁棒性质量值;基于区域特征聚合方法选取特征通道,连接特征张量作为聚合结果;S4:根据先验标签使用回归方法调整深层部分网络参数,重计算深层特征的输出并聚合,利用得到的所有聚合特征作为模板在孪生网络跟踪架构的搜索分支经过卷积运算得到输出结果。本发明能够有效的进行视觉跟踪。

    一种基于空间注意力特征聚合的视觉跟踪方法

    公开(公告)号:CN112258557A

    公开(公告)日:2021-01-22

    申请号:CN202011149132.2

    申请日:2020-10-23

    Applicant: 福州大学

    Inventor: 柯逍 李悦洲 叶宇

    Abstract: 本发明涉及一种基于空间注意力特征聚合的视觉跟踪方法,包括步骤:S1:获取视频或图像序列的首帧标注信息,将首帧图像输入孪生网络跟踪架构的模板分支,对区域目标提取浅层特征、中间层特征、深层特征;其中孪生网络跟踪架构包括模板分支与搜索分支;S2:构造空间注意力掩模,计算掩模运算后的特征;S3:对浅层特征计算精确性质量值,对中间层特征计算鲁棒性质量值;基于区域特征聚合方法选取特征通道,连接特征张量作为聚合结果;S4:根据先验标签使用回归方法调整深层部分网络参数,重计算深层特征的输出并聚合,利用得到的所有聚合特征作为模板在孪生网络跟踪架构的搜索分支经过卷积运算得到输出结果。本发明能够有效的进行视觉跟踪。

Patent Agency Ranking