-
公开(公告)号:CN118968027B
公开(公告)日:2025-05-13
申请号:CN202411106661.2
申请日:2024-08-13
Applicant: 合肥工业大学
IPC: G06V10/25 , G06V10/26 , G06V10/44 , G06V10/42 , G06V10/82 , G06V10/764 , G06V10/766 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种局部‑全局可见性分析的X光图像遮挡目标检测方法。本发明使用YOLOv8,提取局部块特征,并计算多种局部的可见性mask,和局部的可见性特征。本发明计算局部块之间的全局关系,并计算多种全局的可见性mask,和全局的可见性特征。为了验证遮挡目标情况下,可见性mask估计的准确性,本方法在训练目标检测模型时,额外计算局部‑全局可见性mask损失,和遮挡得分梯度调整损失。本发明考虑了局部‑全局可见性mask损失,和梯度调整损失,可以有效分析目标的可见性mask,缓解遮挡目标的漏检。
-
公开(公告)号:CN119028001A
公开(公告)日:2024-11-26
申请号:CN202411124661.5
申请日:2024-08-14
Applicant: 合肥工业大学
IPC: G06V40/16 , G06V10/774 , G06V20/40 , G06V10/82
Abstract: 本发明公开了一种基于文本位置注意力的对比微表情识别方法。本发明使用视频光流特征,计算光流注意力,该光流注意力用于分析Vision Transformer的视觉特征,提取光流注意力的微表情视觉特征。对于微表情位置难以发现的困难,提取微表情文本的token,学习文本位置注意力,提取文本位置注意力的微表情特征。为了有效区分不同微表情的显著位置,分析文本位置注意力的正负例对比损失,有效分离容易混淆的微表情类别。本发明考虑了光流注意力特征,文本位置注意力,文本位置对比关系,可以有效避免微表情识别中相互混淆。
-
公开(公告)号:CN119028001B
公开(公告)日:2025-05-13
申请号:CN202411124661.5
申请日:2024-08-14
Applicant: 合肥工业大学
IPC: G06V40/16 , G06V10/774 , G06V20/40 , G06V10/82
Abstract: 本发明公开了一种基于文本位置注意力的对比微表情识别方法。本发明使用视频光流特征,计算光流注意力,该光流注意力用于分析Vision Transformer的视觉特征,提取光流注意力的微表情视觉特征。对于微表情位置难以发现的困难,提取微表情文本的token,学习文本位置注意力,提取文本位置注意力的微表情特征。为了有效区分不同微表情的显著位置,分析文本位置注意力的正负例对比损失,有效分离容易混淆的微表情类别。本发明考虑了光流注意力特征,文本位置注意力,文本位置对比关系,可以有效避免微表情识别中相互混淆。
-
公开(公告)号:CN118968027A
公开(公告)日:2024-11-15
申请号:CN202411106661.2
申请日:2024-08-13
Applicant: 合肥工业大学
IPC: G06V10/25 , G06V10/26 , G06V10/44 , G06V10/42 , G06V10/82 , G06V10/764 , G06V10/766 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种局部‑全局可见性分析的X光图像遮挡目标检测方法。本发明使用YOLOv8,提取局部块特征,并计算多种局部的可见性mask,和局部的可见性特征。本发明计算局部块之间的全局关系,并计算多种全局的可见性mask,和全局的可见性特征。为了验证遮挡目标情况下,可见性mask估计的准确性,本方法在训练目标检测模型时,额外计算局部‑全局可见性mask损失,和遮挡得分梯度调整损失。本发明考虑了局部‑全局可见性mask损失,和梯度调整损失,可以有效分析目标的可见性mask,缓解遮挡目标的漏检。
-
-
-