-
公开(公告)号:CN112053399B
公开(公告)日:2024-02-09
申请号:CN202010923742.7
申请日:2020-09-04
Applicant: 厦门大学
Inventor: 王连生
Abstract: 本发明公开了一种胶囊内镜视频中消化道器官的定位方法,其包括步骤:S1、使用感知哈希算法对相似图片进行过滤,去除相似度较高的图片;S2、利用二分查找算法搜索目标位置;S3、对胶囊内镜图像进行分类。本发明通过相似图片过滤、目标位置搜索、图片分类实现了胶囊内镜视频中不同器官的分类,且分类结果准确,且使用的时间较短,实现了胶囊内镜视频中消化道器官的快速定位,解决了人工阅片工作量大、耗时长的难题。
-
公开(公告)号:CN116309312A
公开(公告)日:2023-06-23
申请号:CN202310058263.7
申请日:2023-01-18
Applicant: 厦门大学
IPC: G06T7/00 , G06V10/26 , G06V10/774 , G06V10/82 , G06N3/048 , G06V10/764 , G06N3/084 , G06N3/0464 , G06N3/094
Abstract: 本发明公开了一种可用于不同数据分布下的息肉分割方法,包括以下步骤:S1、获取息肉的数据集,并对数据集进行预处理;S2、构建息肉的分割模型以及用于对抗训练的鉴别器;S3、利用对抗学习分别对分割模型和鉴别器进行预训练;S4、对预训练后的分割模型进行正式训练;S5、采用正式训练后的分割模型进行息肉分割;本发明将对抗训练和伪标签方法动态结合,能够解决数据分布不同时的跨域问题,在数据分布不同的测试集上有较好的泛化能力。
-
公开(公告)号:CN112085743A
公开(公告)日:2020-12-15
申请号:CN202010924384.1
申请日:2020-09-04
Applicant: 厦门大学
Inventor: 王连生
Abstract: 本发明公开了一种肾肿瘤的图像分割方法,其包括以下步骤:S1、获取腹部扫描图像,并划分成数据集和训练集;S2、对获取的腹部扫描图像进行下采样的预处理操作,得到缩放后的图像;S3、利用腹部空间的全局位置信息确定S2中预处理后图像的感兴趣区域并进行图像分割,通过U型肾肿瘤分割网络进行训练和预测;S4、将S1中的腹部扫描图像进行向外扩张一定范围后分割左肾脏及右肾脏的图像,对所有分割出来的图像进行插值并统一到相同数据分布内,得到左右肾VOI图像;S5、通过U型肾肿瘤分割网络对左右肾VOI图像进行肿瘤分割预测;本发明通过该方法有效避免其他器官组织的干扰,提高了肾肿瘤的识别和分割图像的准确度,且效率更高。
-
公开(公告)号:CN112085716A
公开(公告)日:2020-12-15
申请号:CN202010923735.7
申请日:2020-09-04
Applicant: 厦门大学
Inventor: 王连生
Abstract: 本发明公开了一种基于时阈聚焦图网络的NAFLD超声视频诊断方法,该方法通过结合时阈聚焦图网络和损失函数,对输入的肝脏超声视频分类,从而判断是否患有NAFLD。其中,时阈聚焦图网络由三个子网络组成,分别是特征提取网络、局部连接时阈图网络和全局连接时阈图网络;损失函数由二进制交叉熵损失和区间聚焦损失两部分组成。本发明能够解决现有NAFLD诊断中存在的耗时、专业要求高、误判的问题,提供一种可靠、高效的NAFLD自动诊断方法。
-
公开(公告)号:CN109157210A
公开(公告)日:2019-01-08
申请号:CN201810759651.7
申请日:2018-07-11
Applicant: 厦门大学
Inventor: 王连生
IPC: A61B5/0402
Abstract: 本发明公开了一种基于ADMM和神经网络的心外膜电位重建方法,包括以下步骤:建立心电逆问题求解模型;基于ADMM算法,将所述电逆问题求解模型转化为ADMM算法模型;将所述ADMM算法模型转化为ADMM迭代神经网络模型,计算心电逆问题结果。本发明能够更加准确地求解心电逆问题,确保心外膜电位重建结果的准确性,可信度高。
-
公开(公告)号:CN118645236A
公开(公告)日:2024-09-13
申请号:CN202410563343.2
申请日:2024-05-08
Applicant: 厦门大学附属中山医院
IPC: G16H50/30 , G16H50/20 , G16H30/00 , G06V10/26 , G06V10/764 , G06V10/774 , G06V10/82
Abstract: 本发明公开了一种基于人工智能辅助的慢性胃炎相关胃癌风险评分系统,包括:图像预处理模块,用于对数字病理图像进行前景分割预处理;图像质检模块,用于配置黏膜肌层识别模型,完成对胃黏膜活检深度的自动质检,输出相应质检结果;第一胃炎分类模块,用于配置胃窦及胃角部位胃炎分类模型,分别得到胃窦及胃角部位的组织学分类结果;第二胃炎分类模块,用于配置胃体部位胃炎分类模型,得到胃体部位的组织学分类结果;胃癌风险评分模块,用于依据慢性胃炎分级评估系统OLGA和慢性胃炎肠化分级评估系统OLGIM,根据集成第一胃炎分类模块和第二胃炎分类模块输出的组织学分类结果,得出胃癌风险评分。
-
公开(公告)号:CN112085741B
公开(公告)日:2024-03-26
申请号:CN202010923740.8
申请日:2020-09-04
Applicant: 厦门大学
Inventor: 王连生
IPC: G06T7/11 , G06T7/136 , G06N3/0464 , G06N3/09 , G06T5/30
Abstract: 本发明公开了一种基于深度学习的胃癌病理切片分割算法,其包括以下步骤:S1、获取胃部病理切片图像,将胃部病理切片图像划分为数据集;S2、对数据集的胃部病理切片图像进行预处理,得到图像块,对图像块进行0‑360°旋转、平移及翻转的数据增强;S3、构建FPA‑Net分割模型,FPA‑Net分割模型具有用于深度学习的特征金字塔模块及空洞空间金字塔池化模块;S4、将S2中的图像块输入FPA‑Net分割模型中,得到分割结果;本发明利用深度学习的方法实现对胃部病理切片的胃癌区域自动分割,能够准确地分割出不同形态的癌症区域。
-
公开(公告)号:CN116152574A
公开(公告)日:2023-05-23
申请号:CN202310403684.9
申请日:2023-04-17
Applicant: 厦门大学
IPC: G06V10/764 , G06V10/26 , G06V10/40 , G06V10/82 , G06N3/0442 , G06N3/042 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多阶段信息抽取和记忆的病理图像分类方法,包括以下步骤:S1、将病理图像分割出细胞核;S2、利用自然图像预训练权重对细胞核进行特征提取;S3、利用K近邻算法生成细胞核间边连接,将病理图像建模成一张细胞图数据;S4、对细胞图进行卷积,利用TopK抽取代表节点构成新细胞图;S5、将每一阶段细胞图利用LSTM进行记忆学习,将最终细胞图池化进行病理图像分类;该方法可有效解决图神经网络学习过程中存在的信息冗余问题,同时通过利用LSTM进行记忆学习,使得深层次网络也可以保留浅层次信息,有效提高了对病理图像分类的性能,分类准确性高。
-
公开(公告)号:CN116129200A
公开(公告)日:2023-05-16
申请号:CN202310406196.3
申请日:2023-04-17
Applicant: 厦门大学
IPC: G06V10/764 , G06V10/20 , G06V10/40 , G06V10/80 , G06V10/778 , G06V10/82
Abstract: 本发明公开了一种基于深度学习的支气管镜图像良恶性病灶分类装置,包括步骤:图像获取模块,用于获取数据,并对数据进行预处理;图像处理模块,用于对模型图像编码器进行自监督预训练,提升模型提取深层次抽象特征的能力;图像特征提取模块,用于通过预训练后的编码器提取图像特征,并对临床数据进行维度转换;图像分类模块,用于通过多模态空间注意力机制模块融合图像特征与临床特征,并进行良恶性病灶分类;该装置能够融合图像特征与临床信息,与传统影像组学方法相比,该装置较为高效且分类准确性较高,能够在临床上为医生快速区分支气管镜图像良恶性病灶提供参考。
-
公开(公告)号:CN115984237A
公开(公告)日:2023-04-18
申请号:CN202310058534.9
申请日:2023-01-18
Applicant: 厦门大学
IPC: G06T7/00 , G06V10/40 , G06V10/764 , G06V10/82 , G06N3/08 , G06V10/774 , G06N3/0464 , G06N3/0455
Abstract: 本发明公开了一种基于细胞及多尺度组织信息交互的病理图像分类方法,包括以下步骤:S1、将病理图像分割出细胞核和不同尺度的组织块;S2、对细胞核和组织块进行特征提取;S3、利用K近邻算法生成细胞核和组织块边的连接关系,将一张病理图像建模成为一张细胞图和三个不同尺度的组织图;S4、构建多尺度细胞图和特征图信息交互模型,细胞图进行卷积,组织图进行注意力交互;S5、将交互学习后的组织特征结合细胞特征,进行病理图像分类;该方法可解决不同数据集需要不同尺度大小的组织图问题以及同一组织图信息丢失以及交互不完全问题,有效提高了对病理图像分类的性能,分类准确性高。
-
-
-
-
-
-
-
-
-