基于近红外摄像与深度学习的人手腕脉口位置精准定位方法

    公开(公告)号:CN114298978A

    公开(公告)日:2022-04-08

    申请号:CN202111493641.1

    申请日:2021-12-08

    Applicant: 复旦大学

    Abstract: 本发明属于计算机图像处理技术领域,具体为基于近红外摄像与深度学习的人手腕脉口位置精准定位方法。本发明的基本步骤为:首先通过近红外相机对多人进行手部图像采样,由专业医生进行脉口位置的标记,作为深度学习脉口定位网络模型的训练数据;然后构建深度学习网络模型,网络模型包括特征提取网络和回归网络,特征提取网络对训练集进行腕部轮廓纹理颜色等特征提取,将提取到的腕部特征通过回归网络进行脉口位置预测,得到泛化能力较强的深度学习脉口定位网络模型;最后将拍摄到的手部图像作为预先训练好的深度学习脉口定位网络模型的输入,预测得到手腕脉口在图像上的位置。本发明方法能以较高的精度找到人手腕的脉口位置,为机器人进行中医脉诊提供实时的视觉定位。

    基于特征金字塔网络的图像关键点检测方法

    公开(公告)号:CN111126412A

    公开(公告)日:2020-05-08

    申请号:CN201911159408.2

    申请日:2019-11-22

    Applicant: 复旦大学

    Abstract: 本发明属于计算机图像处理技术领域,具体为基于特征金字塔网络的图像关键点检测方法。本发明方法包括:通过特征金字塔网络提取高表征性图像特征,对尺度、视角几何变换、光照、模糊等都具备鲁棒性;并生成适用于关键点检测的训练数据集;在训练阶段,灰度图像作为网络模型的输入,使用在ImageNet数据集上预训练得到的权重参数来初始化网络模型参数,使用训练数据集对网络参数进行微调,最后输出和输入图像尺寸相同的概率图,图中的每个值处于0到1之间,值越大代表该点越适合作为关键点;在测试阶段使用非极大值抑制算法来避免响应值大的点堆积在一小部分区域,并且设置不同大小的阈值控制关键点数量,保证关键点质量。

    适用于多种棋类的落子策略和局面评估方法

    公开(公告)号:CN110717591A

    公开(公告)日:2020-01-21

    申请号:CN201910929174.9

    申请日:2019-09-28

    Applicant: 复旦大学

    Inventor: 路红 王琳 杨博弘

    Abstract: 本发明属于计算机博弈技术领域,具体为适用于多种棋类的落子策略和局面评估方法。本发明方法包括:通过神经网络预测落子概率和落子估值;使用MCTS算法和Update Board Value算法产生训练数据;通过强化学习方法迭代训练神经网络;最终使用MCTS算法输出落子策略和局面估值。本发明提供了一种对人类友好的、无需知道先手方优势值、适用于多种棋类(如围棋、黑白棋、国际象棋、象棋、国际跳棋)的局面评估函数和落子策略函数。

    基于特征金字塔网络的图像关键点检测方法

    公开(公告)号:CN111126412B

    公开(公告)日:2023-04-18

    申请号:CN201911159408.2

    申请日:2019-11-22

    Applicant: 复旦大学

    Abstract: 本发明属于计算机图像处理技术领域,具体为基于特征金字塔网络的图像关键点检测方法。本发明方法包括:通过特征金字塔网络提取高表征性图像特征,对尺度、视角几何变换、光照、模糊等都具备鲁棒性;并生成适用于关键点检测的训练数据集;在训练阶段,灰度图像作为网络模型的输入,使用在ImageNet数据集上预训练得到的权重参数来初始化网络模型参数,使用训练数据集对网络参数进行微调,最后输出和输入图像尺寸相同的概率图,图中的每个值处于0到1之间,值越大代表该点越适合作为关键点;在测试阶段使用非极大值抑制算法来避免响应值大的点堆积在一小部分区域,并且设置不同大小的阈值控制关键点数量,保证关键点质量。

    基于U网络和对抗学习的显著性检测方法

    公开(公告)号:CN108171701B

    公开(公告)日:2021-06-22

    申请号:CN201810036637.4

    申请日:2018-01-15

    Applicant: 复旦大学

    Abstract: 本发明属于计算机数字图像处理技术领域,具体为一种基于U网络和对抗学习的显著性检测方法。本发明步骤为:构建深度神经网络:神经网络整体设计基于对抗生成网络,包含生成器与鉴别器,生成器在结构上使用了自编码器结构与跳跃连接,主要由编码器和译码器组成,编码器是由编码模块组成,编码模块使用了堆叠的残差模块,译码器主要由解码器组成,也使用了堆叠的残差模块;训练深度神经网络:使用公开的、真实场景下的显著性图像数据集,利用多尺度的图像内容损失函数与对抗损失函数,训练前一步中构建的深度神经网络;利用训练好的网络模型,对自然图像进行检测,再将得到的结果进行后处理,得到最终的结果。本发明方法能够提高显著性检测的准确性。

    基于骨架和视频特征融合的行为分类方法

    公开(公告)号:CN112560618A

    公开(公告)日:2021-03-26

    申请号:CN202011419698.2

    申请日:2020-12-06

    Applicant: 复旦大学

    Abstract: 本发明属于计算机图像处理技术领域,具体为一种基于骨架和视频特征融合的行为分类方法。本发明方法包括:对已有的人类行为视频数据进行预处理,通过人体检测模型和OpenPose分别获取对应的人体检测框和人体骨架数据,作为深度学习模型的训练数据;其中视频数据和人体检测框数据作为前景与背景特征融合网络的输入,骨架特征作为个体与群体特征融合网络的输入;两个网络的输出结果进行平均为最终分类结果;接着对训练集进行监督式学习,得到泛化的深度学习模型;然后,对识别的视频进行和模型训练时一样的预处理,然后作为输入,放进预先训练好深度学习模型里,就能得到行为分类的结果。

    基于单目视觉和IMU信息的机器人定位与地图构建系统

    公开(公告)号:CN107193279A

    公开(公告)日:2017-09-22

    申请号:CN201710320077.0

    申请日:2017-05-09

    Applicant: 复旦大学

    CPC classification number: G05D1/0251 G05D1/0276

    Abstract: 本发明公开了一种基于单目视觉和IMU信息的机器人定位与地图构建系统。本发明利用纯视觉导航信息对IMU偏差模型、绝对尺度以及重力加速度方向等进行估计;在视觉导航中,使用高效的ORB特征提取算法,对图像帧提取丰富的ORB特征;利用基于预积分的IMU动力学模型建立相机的运动模型,对相机位置进行实时初步估计;在初步估计的基础上对两个图像帧之间的ORB特征进行更为精确的估计,再利用多目几何知识,实现对空间地图点三维重构;在融合IMU信息的视觉信息匹配的基础之上,采用基于因子图的后端优化算法,实时对地图位置进行精确和实时的估计。本发明能够对机器人运动和周围环境信息进行精确的估计。

    一种计算机图像的美学评估方法

    公开(公告)号:CN105787966A

    公开(公告)日:2016-07-20

    申请号:CN201610157571.5

    申请日:2016-03-21

    Applicant: 复旦大学

    CPC classification number: G06T5/002 G06T7/40

    Abstract: 本发明属于计算机图像处理技术领域,具体涉及一种计算机图像的美学评估方法。本发明是一种基于对象区域构图特征的图像美学评估方法,其步骤为:利用BING方法检测图像对象,对BING方法得到的候选框进行聚类并优化,从而得到图像对象区域;然后针对图像对象区域利用构图特征进行美学评估,其中,对画面构图相关特征进行了整合和改进,提高了美学评估的性能。本发明方法能够对计算机图像进行有效的美学评估。

Patent Agency Ranking