一种内容时间关系网络及生成时间动作提案的方法

    公开(公告)号:CN114419487B

    公开(公告)日:2024-07-02

    申请号:CN202111607289.X

    申请日:2021-12-24

    Abstract: 本发明公开了一种内容时间关系网络及生成时间动作提案的方法,能够解决在视频中难以生成高质量时序动作提案的问题。所述内容时间关系网络包括:特征编码模块、基础网络、提案评估网络、帧评估网络;所述特征编码模块得到视频特征序列;所述基础网络用于提取帧级别特征之间的双向语义关系,输出最终特征序列;所述提案评估网络包括提案特征图生成层和内容‑时间关系模块,所述提案特征图生成层将所述最终特征序列转化为二维时域提案特征图;所述内容‑时间关系模块基于所述二维时域提案特征图,获取提案之间的内容和时间语义关系,预测每个提案的置信度和完整性;所述帧评估网络输出每帧为动作帧、开始帧、以及结束帧的概率。

    一种基于RGB-D图像的视觉语义关系检测方法

    公开(公告)号:CN111368829B

    公开(公告)日:2023-06-30

    申请号:CN202010126145.1

    申请日:2020-02-28

    Abstract: 本发明公开了一种基于RGB‑D图像的视觉语义关系检测方法,首先提取图像的RGB特征向量的同时估计出图像的深度图并提取对应的深度特征向量,将RGB特征向量与深度特征向量相融合;将融合的特征向量输入视觉语义关系分类器,所述视觉语义关系分类器设计为同时处理RGB特征向量与深度特征向量并弱化深度特征向量部分,得到视觉语义关系检测结果。能够提高复杂视觉场景中视觉语义关系的检测精度和泛化能力。

    一种内容时间关系网络及生成时间动作提案的方法

    公开(公告)号:CN114419487A

    公开(公告)日:2022-04-29

    申请号:CN202111607289.X

    申请日:2021-12-24

    Abstract: 本发明公开了一种内容时间关系网络及生成时间动作提案的方法,能够解决在视频中难以生成高质量时序动作提案的问题。所述内容时间关系网络包括:特征编码模块、基础网络、提案评估网络、帧评估网络;所述特征编码模块得到视频特征序列;所述基础网络用于提取帧级别特征之间的双向语义关系,输出最终特征序列;所述提案评估网络包括提案特征图生成层和内容‑时间关系模块,所述提案特征图生成层将所述最终特征序列转化为二维时域提案特征图;所述内容‑时间关系模块基于所述二维时域提案特征图,获取提案之间的内容和时间语义关系,预测每个提案的置信度和完整性;所述帧评估网络输出每帧为动作帧、开始帧、以及结束帧的概率。

    一种自适应深度感知视觉关系的检测方法

    公开(公告)号:CN114463404B

    公开(公告)日:2024-07-02

    申请号:CN202210003877.0

    申请日:2022-01-05

    Abstract: 本发明的自适应深度感知视觉关系的检测方法,由深度感知视觉融合模块由深度细化单元和深度感知注意力单元组成,能够将不准确的深度视觉信息与准确的RGB视觉信息融合。通过分区域局部池化操作,在背景噪声和前景噪声的影响下,目标的深度空间定位存在较大的误差时,采用自适应深度空间定位方法,利用区域信息方差度量边界框中每个小区域的信息相关性,充分利用视觉外观和空间位置这两个视觉关系检测的主要因素中的深度信息,提高网神经络在视觉关系检测任务中的性能。

    一种自适应深度感知视觉关系的检测方法

    公开(公告)号:CN114463404A

    公开(公告)日:2022-05-10

    申请号:CN202210003877.0

    申请日:2022-01-05

    Abstract: 本发明的自适应深度感知视觉关系的检测方法,由深度感知视觉融合模块由深度细化单元和深度感知注意力单元组成,能够将不准确的深度视觉信息与准确的RGB视觉信息融合。通过分区域局部池化操作,在背景噪声和前景噪声的影响下,目标的深度空间定位存在较大的误差时,采用自适应深度空间定位方法,利用区域信息方差度量边界框中每个小区域的信息相关性,充分利用视觉外观和空间位置这两个视觉关系检测的主要因素中的深度信息,提高网神经络在视觉关系检测任务中的性能。

    一种面向视频的时间动作检测方法

    公开(公告)号:CN114445732A

    公开(公告)日:2022-05-06

    申请号:CN202111579663.X

    申请日:2021-12-22

    Abstract: 本发明提供一种面向视频的时间动作检测方法,解决实际数据中动作实例的持续时间变化很大的问题。本发明采用TAPP方法利用注意机制关注提案的区别性部分,抑制背景对提案特征的影响;然后构造时间金字塔结构,在不丢失时间信息的前提下,将任意长度的提案特征序列转换为多个定长序列,同时设计了一个多尺度时间函数,将其应用到时间金字塔中来生成最终的提案特征,并且基于TAPP方法构建了一个时间动作提案生成模型和一个动作提案分类模型,可以有效的处理不定长时间的时间动作提案,从而更好的完成视频数据中的时间动作检测任务。

    一种基于RGB-D图像的视觉语义关系检测方法

    公开(公告)号:CN111368829A

    公开(公告)日:2020-07-03

    申请号:CN202010126145.1

    申请日:2020-02-28

    Abstract: 本发明公开了一种基于RGB-D图像的视觉语义关系检测方法,首先提取图像的RGB特征向量的同时估计出图像的深度图并提取对应的深度特征向量,将RGB特征向量与深度特征向量相融合;将融合的特征向量输入视觉语义关系分类器,所述视觉语义关系分类器设计为同时处理RGB特征向量与深度特征向量并弱化深度特征向量部分,得到视觉语义关系检测结果。能够提高复杂视觉场景中视觉语义关系的检测精度和泛化能力。

    一种面向视频的时间动作检测方法

    公开(公告)号:CN114445732B

    公开(公告)日:2025-03-21

    申请号:CN202111579663.X

    申请日:2021-12-22

    Abstract: 本发明提供一种面向视频的时间动作检测方法,解决实际数据中动作实例的持续时间变化很大的问题。本发明采用TAPP方法利用注意机制关注提案的区别性部分,抑制背景对提案特征的影响;然后构造时间金字塔结构,在不丢失时间信息的前提下,将任意长度的提案特征序列转换为多个定长序列,同时设计了一个多尺度时间函数,将其应用到时间金字塔中来生成最终的提案特征,并且基于TAPP方法构建了一个时间动作提案生成模型和一个动作提案分类模型,可以有效的处理不定长时间的时间动作提案,从而更好的完成视频数据中的时间动作检测任务。

    一种切换系统的数据驱动最优切换控制方法

    公开(公告)号:CN115755595A

    公开(公告)日:2023-03-07

    申请号:CN202211279534.3

    申请日:2022-10-19

    Abstract: 本发明公开了一种切换系统的数据驱动最优切换控制方法。本发明首先明确最优控制策略使切换系统在无限时间区域代价最小;然后推导基于有限时域HJB方程的最优解,其从某个正定函数出发,根据偏导获得值函数的逼近式;并引入形式为基函数与权值相乘的近似函数替代逼近式中的未知量;即可利用状态数据矩阵估计所述逼近式中近似函数的权值;最后不断更新权值估计值直至近似最优权值,进而代入无限时域HJB方程计算得最优代价和最优切换控制策略。该方法仅需要状态数据,无需子系统模型,即可实现切换系统的最优切换控制,不依赖于系统模型,适用于切换系统子系统模型未知的情况。

Patent Agency Ranking