-
公开(公告)号:CN116503330A
公开(公告)日:2023-07-28
申请号:CN202310316812.6
申请日:2023-03-29
Applicant: 扬州大学
IPC: G06T7/00 , G06N3/0464 , G06N3/048 , G06N3/084 , G06V10/80
Abstract: 本发明公开了一种基于边界引导Transformer的黑色素瘤皮肤病检测方法及系统,包括获取待检测的皮肤镜图像数据集;构建黑色素瘤皮肤病检测方法;模型训练,将训练数据集中的数据输入检测模型中,得到区域预测图,并进行迭代训练;将模型训练中得到的区域预测图进行模型检测,并输出检测结果图。并设计了一个边界引导特征增强模块,利用边界信息引导浅级区域特征学习,增强特征表示能力;及一个互补融合模块,利用深层特征滤除浅层特征中的背景噪声,并逐层融合得到更清晰的预测;及一个细节细化模块,利用骨干网络最底层的特征来补充空间细节信息,细化预测结果。该模型检测精度高,实时性强,具有很好的临床应用价值。
-
公开(公告)号:CN114612662A
公开(公告)日:2022-06-10
申请号:CN202210228391.7
申请日:2022-03-10
Applicant: 扬州大学
Abstract: 本发明公开了一种基于边界引导的息肉图像分割方法,包括:构建息肉图像分割模型;将待分割的息肉图像输入息肉图像分割模型中,得到各个侧输出的区域预测图PR4‑PR1和边界预测图PB4‑PB1,并将其上采样至与待分割的息肉图像相同的分辨率,得到区域预测图和边界预测图利用交叉熵损失函数计算区域预测图边界预测图与真实标注图之间的误差,并将误差进行反向传递以更新息肉图像分割模型参数,以训练息肉图像分割模型;将待分割的息肉图像输入至训练好的息肉图像分割模型中,将残差细化译码器A输出的区域预测图通过一个Sigmoid层归一化至(0,1),再恢复原图像分辨率后输出为最终的分割结果;本发明大大提高了息肉图像分割的准确性;实现了更精准的区域预测。
-
公开(公告)号:CN115937515A
公开(公告)日:2023-04-07
申请号:CN202211406570.1
申请日:2022-11-10
Applicant: 扬州大学
IPC: G06V10/26 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0464
Abstract: 本发明公开了一种基于边界感知的多模态镜子图像分割方法包括:基于边界感知获取镜子图像分割模型,在骨干网络的基础上增加并使用粗略预测模块提取骨干网络深层特征,得到镜子图像的粗略预测图;通过增加和使用感受野增广卷积层扩大深层特征的感受野,基于多模态特征融合模块提取深度图像的多层特征;利用边界细化感知模块逐层提取区域图和边界图,通过边界图引导区域图进行约束细化获得镜子图像分割图;本发明能够在背景相似的场景下精确的分割镜子图像,使用多模态特征融合模块,基于边界感知方法使用边界图引导区域图进行约束细化得到镜子图像分割图,有效提高了图像分割的精度。
-
公开(公告)号:CN114494325A
公开(公告)日:2022-05-13
申请号:CN202210107165.3
申请日:2022-01-28
Applicant: 扬州大学
Abstract: 本发明公开了一种基于分离引导卷积的多模态人像分割方法,包括通过译码器,将编码器输出的特征输入分离引导卷积中进行多尺度学习,输出人像的预测概率图,构建人像分割模型;将待检测的人物图像及其深度图输入到构建好的网络模型进行模型训练,对每一个侧输出的预测图加入深度监督,用交叉熵损失来计算人工标注图和预测的人像分割图像的差异,将这些误差反馈给网络以更新整个网络的模型参数;将需要测试的原始图像及其深度图像输入到模型中进行模型测试。本发明所述方法通过降低侧输出特征图像尺度,提升多尺度特征表达能力,从而加快推理计算速度,提升复杂场景下的检测准确性。
-
公开(公告)号:CN114220013A
公开(公告)日:2022-03-22
申请号:CN202111549243.7
申请日:2021-12-17
Applicant: 扬州大学
Abstract: 本发明公开了一种基于边界交替引导的伪装物体检测方法包括:构建基于边界交替引导的伪装检测模型,增加初始定位模块提取骨干网络多尺度深层特征,得到伪装物体的粗略定位图;增加多尺度感受野模块扩大粗略定位图的感受野提升语义信息提取能力;增加边界交替引导模块逐层提取区域图和边界图并彼此进行约束细化得到精确的伪装物体预测图;本发明能够在相似背景下精确的定位到伪装物体,而且基于边界交替引导的结构能够利用边界约束得到更圆滑的伪装物体预测图,也能够利用预测图约束边界得到连续清晰的边界图,有效提高了伪装物体检测的精度。
-
-
-
-