-
公开(公告)号:CN111860699B
公开(公告)日:2021-04-13
申请号:CN202010872239.3
申请日:2020-08-26
Applicant: 重庆大学
Abstract: 本发明涉及一种基于波动率的通勤出行模式识别方法,该方法首先进行城市区域划分,使用K‑means算法进行聚类,随机选择聚类中心,针对聚类数据集中的每个站点,计算每个站点到各个聚类中心点的影响距离,确定站点到哪个聚类中心的影响距离最小,就将站点划分到该聚类中心的类中,输出聚类中心和各个类中的所有站点;然后进行通勤出行模式识别,该步骤中引入客流波动率,计数大于阈值的波动率个数q,若q=4且四个波动率峰值分别对应早高峰和晚高峰的起止时间点,那么这一对研究对象区域被识别为通勤出行模式。该方法可以准确识别通勤出行模式,从而提高站点客流预测的准确性,进而可有效给予拥堵或异常的预警。
-
公开(公告)号:CN111860699A
公开(公告)日:2020-10-30
申请号:CN202010872239.3
申请日:2020-08-26
Applicant: 重庆大学
Abstract: 本发明涉及一种基于波动率的通勤出行模式识别方法,该方法首先进行城市区域划分,使用K-means算法进行聚类,随机选择聚类中心,针对聚类数据集中的每个站点,计算每个站点到各个聚类中心点的影响距离,确定站点到哪个聚类中心的影响距离最小,就将站点划分到该聚类中心的类中,输出聚类中心和各个类中的所有站点;然后进行通勤出行模式识别,该步骤中引入客流波动率,计数大于阈值的波动率个数q,若q=4且四个波动率峰值分别对应早高峰和晚高峰的起止时间点,那么这一对研究对象区域被识别为通勤出行模式。该方法可以准确识别通情出行模型,从而提高站点客流预测的准确性,进而可有效给予拥堵或异常的预警。
-
公开(公告)号:CN115035074B
公开(公告)日:2024-05-28
申请号:CN202210691802.6
申请日:2022-06-17
Applicant: 重庆大学
IPC: G06T7/00 , G06T7/12 , G06V10/26 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/045 , G06N3/08
Abstract: 本发明涉及一种基于全局空间感知网络的宫颈上皮组织病理图像识别方法,S1构建NSSD数据集,S2构建全局空间感知网络GSAN,并使用NSSD数据集对GSAN进行训练,得到最优全局空间感知网络,S3对于一个待预测的宫颈上皮组织病理RGB原图采用S1中的方法处理得到待预测样本,将该待预测样本输入最优全局空间感知网络,最优全局空间感知网络的输出即为预测结果。本发明利用CNN的高效性与局部信息学习能力,将SAA与ConvLayer交替堆叠,最终构建出了全局空间感知网络GSAN,GSAN结合了CNN与Transformer的优势,实现了更加准确的病理图像识别效果。
-
公开(公告)号:CN110675411A
公开(公告)日:2020-01-10
申请号:CN201910915033.1
申请日:2019-09-26
Applicant: 重庆大学 , 中国人民解放军陆军军医大学第二附属医院
Abstract: 本发明公开了基于深度学习的宫颈鳞状上皮内病变识别算法,包括以下步骤:获取预先准备好的宫颈数字病理图像;利用VGG16改进U-net算法对所述病理图像进行细胞核分割,获取细胞核的Mask图像;采用超像素聚类算法对所述病理图像进行区域分割,并结合所述Mask图像计算出密度矩阵,提取密度特征得到密度图像;结合所述病理图像、所述Mask图像和所述密度图像的三种数据集,并利用集成CNN进行识别。有益效果:实现了细胞核的分割,以及基于细胞核密度特征的病理图像识别,使简单的CNN模型效率更高,且节省资源,同时,能够起到辅助医生提高宫颈癌变的诊断效率和准确率的效果。
-
公开(公告)号:CN110659692A
公开(公告)日:2020-01-07
申请号:CN201910915086.3
申请日:2019-09-26
Applicant: 重庆大学 , 中国人民解放军陆军军医大学第二附属医院
Abstract: 本发明公开了基于强化学习和深度神经网络的病理图像自动标注方法,包括以下步骤:对染色标准化的原始病理图像进行多尺度超像素划分,并标记超像素的上皮概率阈值;构建超像素分类训练集;采用基于机器学习方法训练标记后的超像素得到学习模型,学习模型对测试图像中的超像素进行分类,并由病理医生对分类结果给予奖励和惩罚,将奖励和惩罚结果反馈给学习模型,学习模型通过奖惩机制重新做出调整;采用预先制定的方法构建端到端标注模型的训练集;采用基于深度神经网络的端到端学习,自动对组织区域标注分割;构建标注模型;使用预先配置好的真实数据对构建的标注模型进行测试。有益效果:能够快速、准确、自动标注不同组织区域的学习模型。
-
公开(公告)号:CN115035074A
公开(公告)日:2022-09-09
申请号:CN202210691802.6
申请日:2022-06-17
Applicant: 重庆大学
IPC: G06T7/00 , G06T7/12 , G06V10/26 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明涉及一种基于全局空间感知网络的宫颈上皮组织病理图像识别方法,S1构建NSSD数据集,S2构建全局空间感知网络GSAN,并使用NSSD数据集对GSAN进行训练,得到最优全局空间感知网络,S3对于一个待预测的宫颈上皮组织病理RGB原图采用S1中的方法处理得到待预测样本,将该待预测样本输入最优全局空间感知网络,最优全局空间感知网络的输出即为预测结果。本发明利用CNN的高效性与局部信息学习能力,将SAA与ConvLayer交替堆叠,最终构建出了全局空间感知网络GSAN,GSAN结合了CNN与Transformer的优势,实现了更加准确的病理图像识别效果。
-
公开(公告)号:CN110675411B
公开(公告)日:2023-05-16
申请号:CN201910915033.1
申请日:2019-09-26
Applicant: 重庆大学 , 中国人民解放军陆军军医大学第二附属医院
IPC: G06T7/11 , G06V10/762 , G06V10/82 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了基于深度学习的宫颈鳞状上皮内病变识别算法,包括以下步骤:获取预先准备好的宫颈数字病理图像;利用VGG16改进U‑net算法对所述病理图像进行细胞核分割,获取细胞核的Mask图像;采用超像素聚类算法对所述病理图像进行区域分割,并结合所述Mask图像计算出密度矩阵,提取密度特征得到密度图像;结合所述病理图像、所述Mask图像和所述密度图像的三种数据集,并利用集成CNN进行识别。有益效果:实现了细胞核的分割,以及基于细胞核密度特征的病理图像识别,使简单的CNN模型效率更高,且节省资源,同时,能够起到辅助医生提高宫颈癌变的诊断效率和准确率的效果。
-
公开(公告)号:CN110659692B
公开(公告)日:2023-04-18
申请号:CN201910915086.3
申请日:2019-09-26
Applicant: 重庆大学 , 中国人民解放军陆军军医大学第二附属医院
IPC: G06V10/762 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08 , G06T7/11 , G16H30/20
Abstract: 本发明公开了基于强化学习和深度神经网络的病理图像自动标注方法,包括以下步骤:对染色标准化的原始病理图像进行多尺度超像素划分,并标记超像素的上皮概率阈值;构建超像素分类训练集;采用基于机器学习方法训练标记后的超像素得到学习模型,学习模型对测试图像中的超像素进行分类,并由病理医生对分类结果给予奖励和惩罚,将奖励和惩罚结果反馈给学习模型,学习模型通过奖惩机制重新做出调整;采用预先制定的方法构建端到端标注模型的训练集;采用基于深度神经网络的端到端学习,自动对组织区域标注分割;构建标注模型;使用预先配置好的真实数据对构建的标注模型进行测试。有益效果:能够快速、准确、自动标注不同组织区域的学习模型。
-
-
-
-
-
-
-