-
公开(公告)号:CN107622244B
公开(公告)日:2020-08-28
申请号:CN201710874793.3
申请日:2017-09-25
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于深度图的室内场景精细化解析方法,应用于数字图像处理和模式识别技术领域,所述方法包括:提取深度图三通道特征,利用已训练的全卷积网络对待解析的室内场景深度图中的目标进行分割;在深度特征图上,利用全连接条件随机场,对分割结果的边界进行完善优化,得到所述待解析的室内场景深度图中所有像素的类别标签向量;将所述待解析的室内场景深度图转换成点云,基于所述类别标签向量解析所述目标的三维结构,得到所述目标的空间姿态。本发明仅采用深度图作为输入,实现对室内场景的语义分割,并给出具体物体在三维坐标下的空间姿态,可以有效克服遮挡,分离前景背景,更有利于保护使用者的隐私。
-
公开(公告)号:CN108898094B
公开(公告)日:2020-06-05
申请号:CN201810670839.4
申请日:2018-06-26
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于串联集成式RMML度量学习的人脸比对方法和系统,包括:特征提取模块,用于对人脸图像训练集和测试样本人脸图像提取特征;L个串联的集成模块,每个集成模块用于将人脸特征集合打乱分组、按组进行RMML度量学习、特征映射后拼接为新的人脸特征集合;度量模块,用于基于RMML度量学习计算第L个集成模块得到的人脸特征集合的距离度量矩阵;比对模块,用于利用距离度量矩阵计算测试样本人脸图像的距离,并根据距离判定人脸图像是否为同一个人。本发明提供的度量学习方法具有闭式解不需求逆,有效提高鲁棒性;通过串联过程的多次线性映射和多次非线性映射,提升度量矩阵的区分能力并避免过拟合,人脸对比准确率更高。
-
公开(公告)号:CN110991268A
公开(公告)日:2020-04-10
申请号:CN201911110171.9
申请日:2019-11-13
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于深度图像的帕金森手部运动量化分析方法和系统,属于计算机视觉与机器学习领域。包括:被检测者按照帕金森病评量表要求做出手部动作,在此期间获取被检测者的多帧深度图像,并识别每帧深度图像中手部质心的3D坐标;根据手部质心的3D坐标,对各帧深度图像进行手部点云和噪声点云的分割;基于单帧深度图像中的手部点云,预测各帧深度图像中手部各关节点的3D坐标;根据连续帧之间的时序信息和手部姿态的先验知识,对所有帧的所有手部关节点的3D坐标进行整体优化;根据优化后的关节点3D坐标,提取手部运动特征;利用训练好的XGBoost分类器,对提取的手部运动特征进行分类,给出相应的评分结果。
-
公开(公告)号:CN109101881A
公开(公告)日:2018-12-28
申请号:CN201810743856.6
申请日:2018-07-06
Applicant: 华中科技大学
IPC: G06K9/00
Abstract: 本发明公开了一种基于多尺度时序图像的实时眨眼检测方法,包括:对时序图像中的第一帧图像进行定位得到双眼位置;利用其从第一帧图像中提取人眼图像,得到人眼模板;利用人眼模板初始化人眼追踪器,利用更新后的人眼追踪器追踪时序图像,得到时序人眼图像,并更新人眼追踪器,提取处理后的时序人眼图像的人工描述子,再提取人工描述子的differ特征,并将其和人工描述子串接,得到人眼特征。将人眼特征按照时序编码成眨眼行为特征热图;再将眨眼行为特征热图按行逐条输入LSTM网络,得到多个隐藏状态;最后将多个隐藏状态进行串接得到多尺度时序特征后进行眨眼检测,判断时序图像是否含有眨眼行为。本发明提高了无约束条件下眨眼检测的正确率和稳定性。
-
公开(公告)号:CN108038420A
公开(公告)日:2018-05-15
申请号:CN201711162729.9
申请日:2017-11-21
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于深度视频的人体行为识别方法,属于视频信息处理技术领域。本发明方法首先对视频序列的人体目标检测与行为定位,然后对视频的多视角投影形成多视角子视频序列,再对视频进行的动态图编码,之后采用多卷积神经网络模型进行训练提特征,再对特征进行PCA降维处理,最后训练线性支撑向量机分类器,利用支撑向量机分类器获得待测深度视频的行为识别结果;本发明方法从深度图的特点与视频编码的角度出发,充分挖掘图像中的空间信息,降低了处理视频的复杂性,采用的深度学习方法提供了强的特征表达能力,相对于现有其他的传统方法,该方法在算法复杂性、特征表达与识别精度上具有明显的优势。
-
公开(公告)号:CN110969648B
公开(公告)日:2022-05-20
申请号:CN201911264705.3
申请日:2019-12-11
Applicant: 华中科技大学
IPC: G06T7/246
Abstract: 本发明公开了一种基于点云序列数据的3D目标跟踪方法及系统,属于数字图像识别领域,包括:在当前帧和上一帧中分别提取包含目标框的搜索点云和模板点云并标准化,利用3D目标跟踪模型预测目标框在当前帧中的位置和姿态,以确定3D目标在当前帧中的位置;3D目标跟踪模型中,特征提取网络用于提取模板点云特征和搜索点云特征,相关性预测网络用于预测搜索点云中各特征点的目标性得分,集成回归网络用于对两个特征进行融合后,逐点回归,位置预测网络用于根据搜索点云各特征点的目标性得分,对融合特征中各特征点距离目标框中心的距离和姿态进行加权相乘。本发明能够充分利用物体的立体属性,同时提高3D目标跟踪的计算效率和稳定性。
-
公开(公告)号:CN110246181B
公开(公告)日:2021-02-26
申请号:CN201910443496.2
申请日:2019-05-24
Applicant: 华中科技大学
IPC: G06T7/73
Abstract: 本发明公开了一种基于锚点的姿态估计模型训练方法、姿态估计方法和系统,属于数字图像处理和机器学习的交叉技术领域,其中训练方法包括:构建姿态估计模型,采集包含目标的多个样本图像;提取每个样本图像中的目标并对目标进行线性插值得到样本子图,在样本子图上以固定间距设置多个锚点后输入姿态估计模型进行训练,得到训练好的姿态估计模型。利用训练好的姿态估计模型可以对包含目标的图像进行姿态估计。本发明使用密集设置锚点的方式来对关键点进行坐标预测,能够取得比传统方法更为精确的预测结果的同时大幅降低计算量,取得更快的预测速度。同时本发明鲁棒性强,泛化性能好,准确率不受场景的影响。
-
公开(公告)号:CN110969648A
公开(公告)日:2020-04-07
申请号:CN201911264705.3
申请日:2019-12-11
Applicant: 华中科技大学
IPC: G06T7/246
Abstract: 本发明公开了一种基于点云序列数据的3D目标跟踪方法及系统,属于数字图像识别领域,包括:在当前帧和上一帧中分别提取包含目标框的搜索点云和模板点云并标准化,利用3D目标跟踪模型预测目标框在当前帧中的位置和姿态,以确定3D目标在当前帧中的位置;3D目标跟踪模型中,特征提取网络用于提取模板点云特征和搜索点云特征,相关性预测网络用于预测搜索点云中各特征点的目标性得分,集成回归网络用于对两个特征进行融合后,逐点回归,位置预测网络用于根据搜索点云各特征点的目标性得分,对融合特征中各特征点距离目标框中心的距离和姿态进行加权相乘。本发明能够充分利用物体的立体属性,同时提高3D目标跟踪的计算效率和稳定性。
-
公开(公告)号:CN110246181A
公开(公告)日:2019-09-17
申请号:CN201910443496.2
申请日:2019-05-24
Applicant: 华中科技大学
IPC: G06T7/73
Abstract: 本发明公开了一种基于锚点的姿态估计模型训练方法、姿态估计方法和系统,属于数字图像处理和机器学习的交叉技术领域,其中训练方法包括:构建姿态估计模型,采集包含目标的多个样本图像;提取每个样本图像中的目标并对目标进行线性插值得到样本子图,在样本子图上以固定间距设置多个锚点后输入姿态估计模型进行训练,得到训练好的姿态估计模型。利用训练好的姿态估计模型可以对包含目标的图像进行姿态估计。本发明使用密集设置锚点的方式来对关键点进行坐标预测,能够取得比传统方法更为精确的预测结果的同时大幅降低计算量,取得更快的预测速度。同时本发明鲁棒性强,泛化性能好,准确率不受场景的影响。
-
公开(公告)号:CN107622244A
公开(公告)日:2018-01-23
申请号:CN201710874793.3
申请日:2017-09-25
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于深度图的室内场景精细化解析方法,应用于数字图像处理和模式识别技术领域,所述方法包括:提取深度图三通道特征,利用已训练的全卷积网络对待解析的室内场景深度图中的目标进行分割;在深度特征图上,利用全连接条件随机场,对分割结果的边界进行完善优化,得到所述待解析的室内场景深度图中所有像素的类别标签向量;将所述待解析的室内场景深度图转换成点云,基于所述类别标签向量解析所述目标的三维结构,得到所述目标的空间姿态。本发明仅采用深度图作为输入,实现对室内场景的语义分割,并给出具体物体在三维坐标下的空间姿态,可以有效克服遮挡,分离前景背景,更有利于保护使用者的隐私。
-
-
-
-
-
-
-
-
-