一种基于语义偏好挖掘的行人再辨识方法

    公开(公告)号:CN118196840A

    公开(公告)日:2024-06-14

    申请号:CN202410610290.5

    申请日:2024-05-16

    Applicant: 华侨大学

    Abstract: 本发明公开了一种基于语义偏好挖掘的行人再辨识方法,涉及人工智能、机器视觉领域,包括:利用预训练的语义分割模型将行人图像处理为语义分割图,将语义分割图空间划分为若干部件语义块,计算不同语义在语义分割图与部件语义块中的比例,根据不同语义的比例对部件语义块分组进行语义对齐,获得各部件语义块分组对应的部件序号;基于部件序号对部件特征分组,利用自注意网络将各部件特征组投影到公共嵌入空间并进行偏好挖掘,继而利用偏好信息对各部件特征组进行自适应聚合,增强行人再辨识准确性。

    面向大范围车辆再辨识的不完备模态特征融合方法

    公开(公告)号:CN117315430A

    公开(公告)日:2023-12-29

    申请号:CN202311595144.1

    申请日:2023-11-28

    Applicant: 华侨大学

    Abstract: 本发明一种面向大范围车辆再辨识的不完备模态特征融合方法,涉及图像处理技术领域,包括:训练包括三通道模型和单通道模型的双模态模型,对可见光车辆图像,采用三通道模型提取主特征,辅以图像灰度化,采用单通道模型提取辅助特征;对红外光车辆图像,采用单通道模型提取主特征,辅以通道复制扩展,采用三通道模型提取辅助特征;将主特征和辅特征叠加获得完整特征,利用KL散度优化完整、主、辅特征三者之间后验概率分布差异,优化特征融合效果。本发明能解决在长时间大范围的监控场景中车辆因活动轨迹复杂多变出现的模态不完备问题,即可见光和红外车辆图像不完备而无法直接实现可见光和红外图像的特征融合问题,提升车辆再辨识准确性。

    基于空间下采样的多描述编码高质量边重建方法

    公开(公告)号:CN111510721B

    公开(公告)日:2022-11-01

    申请号:CN202010278978.X

    申请日:2020-04-10

    Applicant: 华侨大学

    Abstract: 本发明提供了一种基于空间下采样的多描述编码高质量边重建方法,包括,制作数据集:选取视频,通过空间下采样分成两个描述,在量化参数QP值设定下,编码,解码,将解码后的视频和相应的原始视频作为训练集;训练SD‑VSRnet网络:每五帧视频作为网络的输入,依次进行特征提取,恢复高频细节,像素重排,再与输入的中间帧进行跳跃连接得到重建的视频帧,逐帧重建获得最后的重建视频,实现SD‑VSRnet网络的训练。本发明提出的方法制作了适用于空间下采样的多描述编码高质量边重建的数据集,另外,采用视频超分辨率的神经网络,分别测试4种QP值,可以有效提高不同压缩程度的边缘解码视频重建质量。

    一种采用图形预测的三维点云压缩方法

    公开(公告)号:CN109166160B

    公开(公告)日:2022-07-01

    申请号:CN201811082243.9

    申请日:2018-09-17

    Applicant: 华侨大学

    Abstract: 本发明公开了一种采用图形预测的三维点云压缩方法,属于视频编码领域,方法包括:采用KD树对输入三维点云进行自适应分块;采用KNN算法计算编码单元内每个点的K邻近点;构建每个单元块的图并计算图形平移算子;对每个编码单元的块进行去均值,采用K‑means算法对编码单元进行自适应采样,通过求解优化问题对未采样点进行预测;利用基于KD树的块均值预测算法对每个编码单元块的均值进行预测编码;最后用算术编码器对所有量化的参数和残差进行熵编码。本发明采用图形预测,能够对庞大的三维点云数据进行有效压缩,极大地改善三维点云的传输和存储效率。

    一种基于多深度特征融合网络的车辆再识别方法

    公开(公告)号:CN108875754B

    公开(公告)日:2022-04-05

    申请号:CN201810426492.9

    申请日:2018-05-07

    Applicant: 华侨大学

    Abstract: 本发明涉及一种基于多深度特征融合的车辆再识别方法,包括:提取训练车辆图像的深度ID特征,提取训练车辆图像的深度颜色特征,提取训练车辆图像的深度车型特征,将提取的三种深度特征进行组合,获得融合特征,通过Softmax分类函数对融合后的深度特征进行分类。本发明对输入的车辆图像提取深度ID特征、深度颜色特征和深度车型特征并进行有效地融合,实现三种深度特征的互补,获得更有表征能力的融合特征,从而实现准确的车辆再识别。

    一种基于3D-Gradient引导的屏幕内容视频编码码率控制方法

    公开(公告)号:CN113949872A

    公开(公告)日:2022-01-18

    申请号:CN202111320458.1

    申请日:2021-11-09

    Applicant: 华侨大学

    Abstract: 本发明涉及一种基于3D‑Gradient引导的屏幕内容视频编码码率控制方法,属于视频编码领域。本方法采用3D‑Gradient滤波器同时提取屏幕内容视频序列空域和时域的边缘结构特征以及运动信息,将屏幕内容中空域和时域特征进行融合,获取最终的像素级复杂度因子。通过像素级复杂度因子计算CTU级复杂度因子CF进行CTU级的目标比特分配。利用当前编码帧的参考帧以及重建帧的相似度结合目标比特进行率失真模型的构建,实现目标比特,引导码率控制模型的生成。本发明提出的屏幕内容视频编码码率控制方法能够提高码率控制精度,明显改善重建视频序列的率失真性能,在一定程度上降低视频编码时间复杂度。

    一种基于局部视频活动度的屏幕视频质量识别方法

    公开(公告)号:CN113014916A

    公开(公告)日:2021-06-22

    申请号:CN202110219595.X

    申请日:2021-02-26

    Applicant: 华侨大学

    Abstract: 本发明公开了一种基于局部视频活动度的屏幕视频质量识别方法,方法包括:分别对参考和失真屏幕视频序列采用3D‑LOG滤波器提取屏幕特征;计算屏幕区域相似度,基于3D‑LOG池化策略得到屏幕质量分数;分别对参考和失真屏幕视频序列采用3D‑NSS方法提取自然特征;计算自然区域相似度,基于池化策略得到自然质量分数;计算局部视频活动度;基于局部视频活动度结合屏幕和自然质量分数获得最终失真屏幕视频质量评价值。本发明充分考虑到人类视觉系统对于屏幕视频的屏幕和自然内容区域感知度不同且人眼对于边缘特征高度敏感,具有较好的失真屏幕视频质量评价性能。

    一种恰可察觉失真模型阈值计算方法

    公开(公告)号:CN109525847B

    公开(公告)日:2021-04-30

    申请号:CN201811345416.1

    申请日:2018-11-13

    Applicant: 华侨大学

    Abstract: 本发明涉及一种恰可察觉失真模型阈值计算方法,其包括:对原始图像进行DCT变换,计算相应的亮度自适应模块值和空间对比敏感度函数模块值;利用8×8DCT块的频率能量分布特点,对图像的纹理块进行更为细致的分类,获取对比度掩蔽因子,计算出对比度掩蔽模块值;利用DCT系数的空间频率分布提取出当前图像块的纹理特征,计算两个不同块之间的纹理差异,得到不同块的视觉感知调整因子;整合上述模块,得到最终的JND阈值。本发明所提的算法,在保证视觉质量的前提下,所提JND模型能容纳更多的噪声。该模型可广泛用于感知图像/视频编码、水印以及质量评价等。

Patent Agency Ranking