-
公开(公告)号:CN118154940A
公开(公告)日:2024-06-07
申请号:CN202410148882.X
申请日:2024-02-02
Applicant: 安徽大学
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/084 , G06T7/00
Abstract: 本发明涉及医学图像、深度学习和计算机视觉领域,公开了一种基于商空间理论的多模态内窥镜多组织病灶识别方法,包括如下步骤:步骤S1,收集消化道的内窥镜图像数据集,这些数据集包含了消化道不同组织的内窥镜图像以及相应的组织和病变概念标注,将数据集划分成训练集和测试集,并对训练数据进行数据处理;步骤S2,构建基础Transformer编码器和详细CNN编码器从输入的消化道内窥镜图像中提取到不同粒度的有用视觉特征。本发明通过构建基本Transformer编码器和详细CNN编码器模块,使用分类器将商空间编码器的输出激活映射到最终的概念标签上,输出每个概念在图像病变中的位置可视化的特征图和病变区域概念。
-
公开(公告)号:CN115049603B
公开(公告)日:2024-06-07
申请号:CN202210633745.6
申请日:2022-06-07
Applicant: 安徽大学
IPC: G06V10/26 , G06V20/70 , G06V10/44 , G06V10/74 , G06V10/762 , G06V10/764 , G06V10/82 , G06T7/00 , G06N3/0464 , G06N3/084 , G06N3/09 , G06N3/048
Abstract: 本发明提供一种基于小样本学习的肠息肉分割方法及系统,系统包括:收集训练样本,获取测试样本,将训练样本和测试样本分别再次划分为支持集和查询集;构建特征提取模块来提取支持图像和查询图像的特征信息;构建多级原型学习模块来学习支持图像中的多级目标原型并使其引导查询图像来寻找疑似目标区域;构建全局信息交互模块使得支持图像和查询图像进行充分的信息交互,使查询图像与支持图像的特征层次和对比度相似;构建神经网络,利用训练样本训练该神经网络,优化网络参数,得到神经网络模型;将测试样本输入至上述模型中,经计算输出肠息肉分割图像。解决了分割精度低、依赖充分训练及过度依赖用户交互的问题。
-
公开(公告)号:CN115565013A
公开(公告)日:2023-01-03
申请号:CN202211297190.9
申请日:2022-10-21
Applicant: 安徽大学
IPC: G06V10/764 , G06V10/774 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于半监督学习的心肌梗死图像分割方法及系统,所述方法包括:收集轧增强的心肌梗死磁共振图像数据集进行数据处理得到数据增强的训练数据集;构建编码器,将经过数据增强的训练数据集输入到编码器;构建主解码器和两个辅助解码器;构建鉴别器;将上述编码器的输出端分别与主解码器以及两个辅助解码器连接,鉴别器与主解码器的输出端连接,从而构建半监督心肌梗死神经网络分割模型,训练模型,总损失最小时得到训练好的模型;将实时采集的轧增强的心肌梗死磁共振图像输入到上述训练好的模型中,得出心肌梗死分割图像;本发明的优点在于:分割结果相对准确,训练过程快,充分利用大量无标签数据。
-
公开(公告)号:CN118172562B
公开(公告)日:2024-08-27
申请号:CN202410605818.X
申请日:2024-05-16
Applicant: 安徽大学
IPC: G06V10/26 , G06V10/44 , G06V10/80 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/0475 , G06N3/045 , G06N3/094 , G06N3/084 , G06T7/00 , G06T7/11
Abstract: 本发明的一种无造影剂心肌梗死图像分割方法、设备及介质,包括收集钆造影剂增强前后的心肌梗死核磁共振图像对数据集,并进行数据处理;然后利用时空双流网络分别提取输入图像序列中的时间特征和空间特征,并将提取的特征分别传递给主编码器;其次,使用主编码器将时间特征和空间特征进行有效融合,完成对输入图像序列的特征提取,实现精准的心脏时空表征捕获;最后结合监督训练和鉴别器对抗训练共同训练模型,输出每个输入图像序列的心肌梗死预测分割图。本发明不仅解决了深度学习模型在心肌梗死分割应用中面临的没有充分分析心脏的时空运动问题,还实现了精确的心肌梗死区域分割,为心肌梗死的诊断和治疗提供了有力的技术支持。
-
公开(公告)号:CN115965630A
公开(公告)日:2023-04-14
申请号:CN202211464842.3
申请日:2022-11-22
Applicant: 安徽大学
IPC: G06T7/10 , G06T7/136 , G06T5/50 , G06N3/08 , G06N3/0464
Abstract: 本发明公开了一种基于内窥镜图像的深度融合的肠息肉分割方法及装置,所述方法包括:采集内窥镜下肠息肉图像并进行预处理得到训练集和测试集;利用门控轴向注意力机制模块和滑动窗口注意力机制模块构建深度特征融合模块;利用门控轴向注意力机制模块、深度特征融合模块以及注意力门控模块构建肠息肉图像分割模型;利用训练集训练肠息肉图像分割模型得到最优的肠息肉图像分割模型;将实时采集的内窥镜下肠息肉图像输入最优的肠息肉图像分割模型得到预测分割图像;本发明的优点在于:解决了由于缺乏大量带有标签数据的问题,训练成本和训练难度较低。
-
公开(公告)号:CN115564611A
公开(公告)日:2023-01-03
申请号:CN202211303426.5
申请日:2022-10-24
Applicant: 安徽大学
IPC: G06Q50/18 , G06F18/23 , G06F18/24 , G06N3/0464 , G06N3/08
Abstract: 本发明提供利用多视图表示融合进行专利发明人消歧的方法及系统,方法包括:对专利数据进行预聚类;构建多个局部视图和一个全局视图;利用PatentBERT预训练模型生成文本语义表示向量;利用GAT表征模型并加入生成的节点语义表示向量在所有视图上分别获取对应节点表示向量,该表示向量融合语义信息和结构信息;融合局部视图获取的节点表示向量得到一个局部视图融合向量;接着将局部视图融合向量和全局视图向量借助对比损失进行模型训练,得到节点最终融合向量;利用层次凝聚聚类方法对最终向量进行聚类得到消歧结果。本发明通过在局部视图学习嵌入能够捕获更深层次的局部结构信息,同时结合对比学习的思想,在局部结构信息的基础上捕获全局结构信息。
-
公开(公告)号:CN115049603A
公开(公告)日:2022-09-13
申请号:CN202210633745.6
申请日:2022-06-07
Applicant: 安徽大学
IPC: G06T7/00 , G06T7/10 , G06V10/40 , G06V10/74 , G06V10/762 , G06V10/764 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明提供一种基于小样本学习的肠息肉分割方法及系统,系统包括:收集训练样本,获取测试样本,将训练样本和测试样本分别再次划分为支持集和查询集;构建特征提取模块来提取支持图像和查询图像的特征信息;构建多级原型学习模块来学习支持图像中的多级目标原型并使其引导查询图像来寻找疑似目标区域;构建全局信息交互模块使得支持图像和查询图像进行充分的信息交互,使查询图像与支持图像的特征层次和对比度相似;构建神经网络,利用训练样本训练该神经网络,优化网络参数,得到神经网络模型;将测试样本输入至上述模型中,经计算输出肠息肉分割图像。解决了分割精度低、依赖充分训练及过度依赖用户交互的问题。
-
-
-
-
-
-