-
公开(公告)号:CN113554084B
公开(公告)日:2024-03-01
申请号:CN202110806449.7
申请日:2021-07-16
Applicant: 华侨大学 , 厦门亿联网络技术股份有限公司 , 星宸科技股份有限公司
IPC: G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/082
Abstract: 本发明实例公开了一种基于剪枝和轻量卷积的车辆再辨识模型压缩方法及系统,对待压缩的车辆再辨识模型的骨干网络进行预训练,对预训练完毕的骨干网络进行剪枝,并通过重训练恢复精度,对车辆再辨识模型中特征金字塔模块进行轻量化卷积设计,将紧凑的骨干网络与轻量化的特征金字塔模块结合,骨干网络提取特征后,特征金字塔模块进行特征融合,得到基于特征金字塔联合表示的轻量化车辆再辨识模型。本发明以复杂高性能的车辆再辨识模型作为输入模型,其骨干网络中重要性较低的卷积核被自动选择和剪枝,并改进其特征金字塔模块中的卷积方式,有效降低参数量和计算量,产生精度相当但较为紧凑的模型。
-
公开(公告)号:CN114972812A
公开(公告)日:2022-08-30
申请号:CN202210624115.2
申请日:2022-06-02
Applicant: 华侨大学 , 厦门亿联网络技术股份有限公司
Abstract: 本发明提供一种基于结构相似度的非局部注意力学习方法,可广泛应用于机器视觉领域,例如图像分割、图像分类、图像识别等。现有非局部注意力方法简单计算不同空域位置的两个信号内积作为二者的相似度度量,并不完全符合人类视觉感知特点。针对这一问题,本发明提出利用结构相似度衡量不同空域位置的信号之间的相似度,在非局部注意力学习方法中充分考虑人类视觉对信号感知三个重要因素,即亮度、对比度和结构。其次,本发明进一步提出多尺度结构相似度度量策略,在不同尺度上更为全面地进行信号相似度度量。因此,本发明能够取得比现有非局部注意力方法更好地注意力学习效果。
-
公开(公告)号:CN113554084A
公开(公告)日:2021-10-26
申请号:CN202110806449.7
申请日:2021-07-16
Applicant: 华侨大学 , 厦门亿联网络技术股份有限公司 , 星宸科技股份有限公司
Abstract: 本发明实例公开了一种基于剪枝和轻量卷积的车辆再辨识模型压缩方法及系统,对待压缩的车辆再辨识模型的骨干网络进行预训练,对预训练完毕的骨干网络进行剪枝,并通过重训练恢复精度,对车辆再辨识模型中特征金字塔模块进行轻量化卷积设计,将紧凑的骨干网络与轻量化的特征金字塔模块结合,骨干网络提取特征后,特征金字塔模块进行特征融合,得到基于特征金字塔联合表示的轻量化车辆再辨识模型。本发明以复杂高性能的车辆再辨识模型作为输入模型,其骨干网络中重要性较低的卷积核被自动选择和剪枝,并改进其特征金字塔模块中的卷积方式,有效降低参数量和计算量,产生精度相当但较为紧凑的模型。
-
公开(公告)号:CN118521876A
公开(公告)日:2024-08-20
申请号:CN202410978491.0
申请日:2024-07-22
Applicant: 华侨大学 , 杭州电子科技大学 , 厦门亿联网络技术股份有限公司
IPC: G06V10/98 , G06N3/045 , G06N3/0464 , G06V10/40 , G06V10/54 , G06V10/74 , G06V10/776 , G06V10/82 , G06V20/40
Abstract: 本发明公开了一种基于相似性度量的沉浸式视频质量评价方法及装置,涉及视频处理领域,为了尽可能地解决视频中所存在的冗余信息问题,首先采用随机抽样的方式筛选视频帧;然后考虑到卷积神经网络能够很好地模拟人类视觉感知过程充分捕捉从低层次到高层次的视觉信息进而提取纹理和结构特征,采用预训练的ResNet50模型进行特征提取;并考虑到人类的视觉感知系统在观看视频时不仅会受视频内容的影响还会受到记忆时间的影响,利用一个受主观启发的时间池化策略得到纹理和深度视频的质量分数;最后根据人眼视觉的偏好对纹理和深度视频质量评分进行权重调整得到最终的沉浸式视频质量分数。本发明具有较好的沉浸式视频质量评价效果。
-
公开(公告)号:CN114972812B
公开(公告)日:2024-06-18
申请号:CN202210624115.2
申请日:2022-06-02
Applicant: 华侨大学 , 厦门亿联网络技术股份有限公司
IPC: G06V10/74 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种基于结构相似度的非局部注意力学习方法,可广泛应用于机器视觉领域,例如图像分割、图像分类、图像识别等。现有非局部注意力方法简单计算不同空域位置的两个信号内积作为二者的相似度度量,并不完全符合人类视觉感知特点。针对这一问题,本发明提出利用结构相似度衡量不同空域位置的信号之间的相似度,在非局部注意力学习方法中充分考虑人类视觉对信号感知三个重要因素,即亮度、对比度和结构。其次,本发明进一步提出多尺度结构相似度度量策略,在不同尺度上更为全面地进行信号相似度度量。因此,本发明能够取得比现有非局部注意力方法更好地注意力学习效果。
-
公开(公告)号:CN112818135A
公开(公告)日:2021-05-18
申请号:CN202110208342.2
申请日:2021-02-24
Applicant: 华侨大学 , 厦门亿联网络技术股份有限公司
Abstract: 本发明公开了一种基于公共语义空间学习构建图文知识图谱方法,包括如下步骤:构建深度神经网络用于图像与文本数据的深度特征提取;将图像与文本数据对oi=(xi,li,yi)分别输入到深度神经网络中训练;其中oi表示第i对图像‑文本对数据以及对应的标签,xi,yi与li分别表示第i个图像数据、文本数据以及对应的标签数据;通过损失函数学习两种图像和文本数据间的公共语义表达,并将图像与文本特征转化到公共语义空间中;根据相似度度量,依据CN‑DBpedia的构建方法构建知识图谱。本发明提供的方法能有效实现图像、文本两种不同的模态间的知识图谱构建。
-
公开(公告)号:CN118506168A
公开(公告)日:2024-08-16
申请号:CN202410954584.X
申请日:2024-07-17
Applicant: 华侨大学 , 杭州电子科技大学 , 厦门亿联网络技术股份有限公司
IPC: G06V10/98 , G06N3/045 , G06N3/0464 , G06T7/13 , G06V10/40 , G06V10/54 , G06V10/776 , G06V10/80 , G06V10/82 , G06V20/40
Abstract: 本发明公开一种基于多重特征网络的沉浸式视频质量评价方法及装置,涉及图像处理领域,包括:在沉浸式视频质量评价模型中,通过视频预处理网络对待评价的沉浸式视频包含的多个视点的纹理视频和深度视频进行视点筛选,得到筛选后视点的纹理视频和深度视频,通过时空特征提取网络对筛选后视点的纹理视频和深度视频进行特征提取并计算得到对应视点的纹理视频的质量分数和深度视频的质量分数;通过权重计算网络计算得到筛选后视点的时空轨迹权重,将筛选后视点的时空轨迹权重与对应视点的纹理视频的质量分数和深度视频的质量分数输入质量分数计算模块计算得到沉浸式视频的质量分数。本发明解决现有沉浸式视频质量评价算法效果较差的问题。
-
公开(公告)号:CN116128779A
公开(公告)日:2023-05-16
申请号:CN202211687228.3
申请日:2022-12-27
Applicant: 华侨大学 , 厦门亿联网络技术股份有限公司
Abstract: 本发明涉及一种适用于跨模态行人再辨识的随机置色数据增强方法,先对可见光图像随机裁剪局部区域,对所裁剪的局部区域进行随机灰度化变换,以及对红外光图像随机裁剪局部区域,对所裁剪的局部区域进行随机彩色化变换;再将变换后的局部区域替换为原先被裁剪区域,获取随机置色增强可见光和红外光图像用于跨模态行人再辨识步骤。本发明在图像层面上,以轻量计算代价缓解可见光和红外光图像风格差异,从而提升跨模态行人再辨识模型对模态变化的适应能力,进而提升跨模态行人再辨识的准确性。
-
公开(公告)号:CN115995065A
公开(公告)日:2023-04-21
申请号:CN202310149452.5
申请日:2023-02-22
Applicant: 华侨大学 , 厦门亿联网络技术股份有限公司
IPC: G06V20/54 , G06V10/82 , G06N3/08 , G06N3/0464
Abstract: 本发明提供一种基于动态卷积Transformer的车辆再辨识方法;不同于各个局部区域共用卷积核,本发明中各个局部区域共用一个卷积核池,由一个全连接人工神经子网从各个局部区域各自学习得到一组系数,利用各个局部区域对应的系数将卷积核池中的卷积核进行线性融合获得各个局部区域的专用卷积核,用于学习各个局部区域的特征。因此,本发明能够根据各个局部区域自身的表征特性自适应学习相应的卷积核,能够更好学习车辆图像的局部特征,从而有利于提升车辆再辨识性能。
-
公开(公告)号:CN112818135B
公开(公告)日:2022-11-01
申请号:CN202110208342.2
申请日:2021-02-24
Applicant: 华侨大学 , 厦门亿联网络技术股份有限公司
Abstract: 本发明公开了一种基于公共语义空间学习构建图文知识图谱方法,包括如下步骤:构建深度神经网络用于图像与文本数据的深度特征提取;将图像与文本数据对oi=(xi,li,yi)分别输入到深度神经网络中训练;其中oi表示第i对图像‑文本对数据以及对应的标签,xi,yi与li分别表示第i个图像数据、文本数据以及对应的标签数据;通过损失函数学习两种图像和文本数据间的公共语义表达,并将图像与文本特征转化到公共语义空间中;根据相似度度量,依据CN‑DBpedia的构建方法构建知识图谱。本发明提供的方法能有效实现图像、文本两种不同的模态间的知识图谱构建。
-
-
-
-
-
-
-
-
-