-
公开(公告)号:CN119599965A
公开(公告)日:2025-03-11
申请号:CN202411638356.8
申请日:2024-11-16
Applicant: 合肥工业大学
IPC: G06T7/00 , G06V10/764 , G06V10/82 , G16H70/60 , G16H30/20 , G16H50/30 , G06N3/0464 , G06N3/042 , G06N3/0455
Abstract: 本发明属于计算机视觉领域,具体涉及一种基于双分支协同训练深度网络模型的组织病理学全切片图像分析系统及方法,包括:获取具有图像级别标签的组织病理学全切片图像数据集并进行分块预处理;基于病理基础大模型的分块图像编码;建立基于切片图的双分支协同训练深度网络模型;使用具有图像级别标签的组织病理学全切片样本数据集离线训练网络模型;利用训练好的网络模型对组织病理学全切片图像进行预测,输出全切片图像的分析结果。本发明引入了切片图辅助深度网络模型建模全切片图像之间的相关性,能弥补现有的组织病理学全切片图像分析方法忽视全切片间相关性的不足,提升深度网络模型对组织病理学全切片的分析精度。
-
公开(公告)号:CN116092058A
公开(公告)日:2023-05-09
申请号:CN202211357758.1
申请日:2022-11-01
Applicant: 合肥工业大学
IPC: G06V20/59 , G06V40/16 , G06V10/25 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明公开了一种基于视线方向对比学习的分心驾驶行为检测方法。本发明设计卷积神经网络估计驾驶员头部的凝视点坐标,根据凝视点坐标来计算视线方向。考虑驾驶场景中的感兴趣目标位置,来找出视线方向中的感兴趣目标,并修正视线方向。本发明通过挖掘容易混淆的驾驶状态视频帧,并利用对比学习,来准确辨别易混淆的驾驶状态。对比学习考虑,使易混淆安全视频帧特征接近易识别安全视频帧特征,同时远离易识别分心视频帧特征,从而有效的分离易混淆的分心视频帧和安全视频帧。本发明估计的视线方向指向明确的感兴趣目标,同时,使用对比学习,能够有效实现容易混淆的视线方向情况下的分心行为检测。
-
公开(公告)号:CN113537136B
公开(公告)日:2024-09-27
申请号:CN202110876540.6
申请日:2021-07-30
Applicant: 合肥工业大学
IPC: G06V20/52 , G06V20/58 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种面向边缘设备的遮挡行人闯红灯姿态识别方法,本发明通过获取红灯亮起时的斑马线处监控行人图片,实现行人姿态关节点检测和闯红灯姿态识别两个任务。本发明通过学习构建姿态空间关系矩阵,实现对遮挡关节点特征的空间关系传播,修正错误的关节点定位。面向边缘设备计算能力有限的问题,本发明使用蒸馏学习思想,分布设计教师网络和学生网络,并设计了学生网络损失函数,来获得轻量级的姿态关节点定位的学生网络。最后针对闯红灯姿态识别任务,构建卷积神经网络,实现闯红灯和非闯红灯的状态识别。本发明具有场景适用能力强,关节点定位准确性高,轻量级网络,处理速度快,便于移植等优势,可有效实现行人闯红灯行为识别。
-
公开(公告)号:CN118038421A
公开(公告)日:2024-05-14
申请号:CN202410349629.0
申请日:2024-03-26
Applicant: 合肥工业大学
Abstract: 本发明公开了一种基于局部‑全局面部关键点关系的疲劳驾驶姿态识别方法,本发明将面部关键点分成左眼睛、右眼睛、嘴巴、下巴局部分组,学习基于位置的局部关键点关系,进一步将面部姿态划分为多个视角,学习多视角的全局关键点关系,多视角的局部关键点关系。本发明构建多视角局部‑全局Transformer,通过使用上述的面部关键点关系,用于识别疲劳驾驶姿态;本发明通过收集驾驶员的驾驶姿态数据集,运用关键点间局部与全局的空间关系,结合Transformer模型检测关键点热图,从而提高检测的准确性,能够避免局部疲劳状态和局部正常状态的错误判断,具有实际应用价值。
-
公开(公告)号:CN117274307A
公开(公告)日:2023-12-22
申请号:CN202311216082.9
申请日:2023-09-20
Applicant: 合肥工业大学
Abstract: 本发明公开了一种目标动态卷积核的高空抛物跟踪方法。本发明关注于随着目标类别变化的动态卷积核学习。本发明将目标中心点视为Key特征,将目标中心点附近的像素视为Query特征,利用Key和Query匹配的方法来学习附近的像素的权重。本发明通过依次匹配目标中心点附近的像素,来提取动态卷积核中每个位置上的权重。为了抑制干扰目标和困难目标对目标跟踪的影响,本发明在跟踪目标类之外,添加干扰目标类和困难目标类的动态卷积核学习过程,设计融合多目标类别的动态卷积核目标检测网络。在测试视频的高空抛物跟踪过程中,本发明使用多目标动态卷积核的目标检测模型,能有效抑制干扰信息和困难信息,从而提高高空抛物跟踪的准确性。
-
公开(公告)号:CN113537136A
公开(公告)日:2021-10-22
申请号:CN202110876540.6
申请日:2021-07-30
Applicant: 合肥工业大学
Abstract: 本发明公开了一种面向边缘设备的遮挡行人闯红灯姿态识别方法,本发明通过获取红灯亮起时的斑马线处监控行人图片,实现行人姿态关节点检测和闯红灯姿态识别两个任务。本发明通过学习构建姿态空间关系矩阵,实现对遮挡关节点特征的空间关系传播,修正错误的关节点定位。面向边缘设备计算能力有限的问题,本发明使用蒸馏学习思想,分布设计教师网络和学生网络,并设计了学生网络损失函数,来获得轻量级的姿态关节点定位的学生网络。最后针对闯红灯姿态识别任务,构建卷积神经网络,实现闯红灯和非闯红灯的状态识别。本发明具有场景适用能力强,关节点定位准确性高,轻量级网络,处理速度快,便于移植等优势,可有效实现行人闯红灯行为识别。
-
公开(公告)号:CN108053370A
公开(公告)日:2018-05-18
申请号:CN201711223610.8
申请日:2017-11-29
Applicant: 合肥工业大学
Abstract: 本发明公开了一种基于匹配误差抑制的成像坐标校正方法,手工标记测量图像背景区域,获取其匹配点对。并基于匹配点对利用迭代误差法建模几何校正映射矩阵,提高了实验结果的精度。据此,利用欧式距离及阈值,检测并抑制噪声匹配点。再次利用迭代误差拟合求解新的映射矩阵,并对参考图像进行校正。将测量图像与边缘二值掩膜融合,获取足部坐标。再将测量图像边缘与几何校正后的参考图像进行融合,根据足部点误差,水平平移获得足部对齐的参考图像。本发明具有直观有效,鲁棒性强,场景适应度高等优点,不仅能够解决成像坐标在对齐标定中受到背景信息、复杂结构混杂信息、足部近邻结构信息的干扰,而且也能够解决多幅参考图像拟合结果的不一致性。
-
公开(公告)号:CN119579540A
公开(公告)日:2025-03-07
申请号:CN202411638357.2
申请日:2024-11-16
Applicant: 合肥工业大学
IPC: G06T7/00 , G06V10/764 , G06V10/80 , G06N3/0895
Abstract: 本发明公开了一种基于弱监督多模态对比学习的预测模型构建方法及乳腺癌HER2评分预测方法,模型构建方法步骤包括:获取具有图像及标签的多模态病理全切片数据集并进行分块预处理;利用特征编码器提取分块图像特征;建立基于弱监督多模态对比学习的网络模型;利用包含弱标签的多模态病理全切片数据集训练网络模型。乳腺癌HER2评分预测方法即利用训练好的模型对病理全切片进行预测。本发明能够通过弱监督多模态对比学习方法来学习和融合不同模态病理全切片相关的病理知识,有效地实现多模态之间的语义互补并提高每个模态的学习能力,完成病理全切片的HER2评分任务并进行可视化解释性分析。
-
公开(公告)号:CN106204572B
公开(公告)日:2020-12-04
申请号:CN201610528752.4
申请日:2016-07-06
Applicant: 合肥工业大学
Abstract: 本发明公开了一种基于场景深度映射的道路目标深度估计方法,通过获取场景深度映射关系和目标定位两个要素,实现场景目标深度估计。在场景边缘检测和直线检测基础上,针对消失点和消失线定位不确定问题,使用最大期望算法,精确估计中心消失点和中心视野消失线;并利用摄像机模型,完成场景的深度映射关系构建。针对场景目标定位不准确问题,在场景分割基础上,采用Adaboost分类器训练并识别分割区域的类别标记;分析垂直目标的地面接触线,查找深度映射关系表,获得场景目标深度估计。
-
公开(公告)号:CN119600598A
公开(公告)日:2025-03-11
申请号:CN202411638358.7
申请日:2024-11-16
Applicant: 合肥工业大学
IPC: G06V20/69 , G06T7/00 , G16H70/60 , G16H30/20 , G06V10/764 , G06V10/82 , G06V10/80 , G06N3/0455 , G06N3/0895
Abstract: 本发明属于组织病理学全切片图像分析技术领域,具体涉及一种基于位置编码转换器的组织病理学全切片图像分类方法及系统,方法包括获取具有图像及其类别标签的病理全切片数据集并进行分块预处理,利用特征编码器提取分块图像特征,建立基于位置编码引导的转换器多实例学习网络模型;利用包含弱标签的病理全切片数据集训练网络模型;利用训练好的模型对病理全切片进行预测分类,本发明能够通过多实例学习的弱监督方法解决病理图像详细标注难以获取的问题,能够有效的考虑到病理切片内不同子区域间的空间和语义关系的重要性,完成病理全切片的分类任务并进行可视化解释性分析。
-
-
-
-
-
-
-
-
-