基于Android的证件照合规性检测方法及系统

    公开(公告)号:CN113449694B

    公开(公告)日:2023-04-07

    申请号:CN202110840307.2

    申请日:2021-07-24

    Applicant: 福州大学

    Inventor: 柯逍 陈秋琴

    Abstract: 本发明涉及一种基于Android的证件照合规性检测方法及系统,该方法包括以下步骤:步骤S1:检测图片是否存在人脸并确定五官关键点位置;步骤S2:将检测到的人脸框提取出来,进行眼部、嘴部、头部姿态判断;步骤S3:对检测合格的图片进行人像分割,进行证件照背景制作,制作各种底色的证件照以供选择;步骤S4:对要比较的图片进行人脸检测,对人脸框中的特征进行人脸比对,判断两张图片人脸相似度。该方法及系统可以有效地对图片进行证件照合规性检测以及证件照制作。

    基于动态间隔损失函数和概率特征的视频人脸识别方法

    公开(公告)号:CN111339988B

    公开(公告)日:2023-04-07

    申请号:CN202010166807.8

    申请日:2020-03-11

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于动态间隔损失函数和概率特征的视频人脸识别方法,包括以下步骤:步骤S1:通过人脸识别训练集训练识别网络;步骤S2:采用已训练的识别网络作为特征提取模块,并通过同一个训练集训练不确定性模块;步骤S3:利用学习到的不确定性作为特征的重要程度,对输入的视频特征集合进行聚合,得到聚合后的特征;步骤S4:采用互似然分数对聚合后的特征进行比对,完成最终的识别。该方法能够有效地对视频中的人脸进行识别。

    一种基于改进YOLOv3的单证图像中数字信息区域识别方法

    公开(公告)号:CN112307919B

    公开(公告)日:2023-03-24

    申请号:CN202011137363.1

    申请日:2020-10-22

    Applicant: 福州大学

    Inventor: 柯逍 王俊强 林艳

    Abstract: 本发明涉及一种基于改进YOLOv3的单证图像中数字信息区域识别方法,包括步骤:获取手写数字图片,并对获取的手写数字图片集合进行预处理与标注,得到训练集;训练YOLOv3网络,用以检测和识别单证图像手写体数字信息区域;训练卷积神经网络CNN,用以识别单个手写体数字;用训练好的YOLOv3网络和卷积神经网络模型CNN对单证图像中手写数字信息区域的进行检测识别和重识别。本发明有效提升了复杂场景下单证图像中手写数字信息识别的准确率。

    基于模板匹配和概率分布的物体位姿估计方法

    公开(公告)号:CN115761734A

    公开(公告)日:2023-03-07

    申请号:CN202211343422.X

    申请日:2022-10-29

    Applicant: 福州大学

    Inventor: 柯逍 黄森敏

    Abstract: 本发明涉及一种基于模板匹配和概率分布的物体位姿估计方法,包括以下步骤:步骤S1:对位姿估计训练集进行语义分割;步骤S2:将步骤S1语义分割检测到的目标与渲染模板匹配,生成初始的视点估计;步骤S3:利用深度学习网络学习输入图像像素和匹配模板之间的密集2D‑2D对应关系,进而生成图像像素与3D模型之间的2D‑3D对应;步骤S4:使用可微分的pnp层生成目标物体的六自由度信息,利用位姿的概率分布进行指导,生成最终的位姿解。该方法能够有效地对RGB图像中的目标进行位姿估计。

    基于yolov4和CenterNet的异常着装检测方法

    公开(公告)号:CN112364734B

    公开(公告)日:2023-02-21

    申请号:CN202011188613.4

    申请日:2020-10-30

    Applicant: 福州大学

    Inventor: 柯逍 陈文垚

    Abstract: 本发明涉及一种基于yolov4和CenterNet的异常着装检测方法,包括以下步骤:步骤S1:获取异常着装数据并对其进行数据预处理,构建异常着装检测数据集;步骤S2:对yolov4模型和CenterNet模型的超参数分别进行调优,并分别训练;步骤S3:根据训练后的yolov4检测模型进行目标检测,获取预测结果,并解码预测结果后利用非极大值抑制筛选出最终的预测框;步骤S4:根据训练后CenterNet检测模型进行目标检测,计算输入数据的中心点和角点热力图,预测关键点位置,将得到的热力图归一化后找出K个极大值点作为候选目标;通过中心点计算得到最终目标框;步骤S5:根据得到的最终的预测框和最终目标框在原图上进行绘制,添加类别名称和置信度等信息后得到结果图。本发明能够有效识别异常着装现象。

    基于弱监督学习的数据增强网络的细粒度车辆识别方法

    公开(公告)号:CN112257601B

    公开(公告)日:2023-02-21

    申请号:CN202011142413.5

    申请日:2020-10-22

    Applicant: 福州大学

    Inventor: 柯逍 蔡宇航

    Abstract: 本发明提出基于弱监督学习的数据增强网络的细粒度车辆识别方法,包括以下步骤;步骤S1:把细粒度车型数据集将其输入数据增强网络的主干网络,以获得车辆注意力图并计算部分注意力特征;步骤S2:进行图片数据增强,生成增强图像以扩充训练样本;步骤S3:计算原始图像和增强图像损失以及特征中心损失,以得到网络整体损失函数;步骤S4:过滤背景噪声,生成定位图输入数据增强网络,与原始图像获得的概率求均值得到最终细粒度车型预测结果;步骤S5:构建与颜色、角度、粗粒度车型相关的的多标签向量,将图片输入网络训练获得多标签分类器。输入汽车定位图得到汽车多标签预测结果;本发明能够准确有效地经图像识别来获取图片中的多种车辆信息。

    基于深度学习进行3D图像质量评估的方法

    公开(公告)号:CN115631181A

    公开(公告)日:2023-01-20

    申请号:CN202211380117.8

    申请日:2022-11-05

    Applicant: 福州大学

    Abstract: 本发明提出基于深度学习进行3D图像质量评估的方法,包括以下步骤;步骤S1:对构成3D图像的左右两视图进行融合处理,使用融合后的图片生成显著性图;步骤S2:根据融合处理的图片对原左右视图进行裁剪;步骤S3:对裁剪后左右视图的补丁对组合后,输入到用于质量评估的神经网络中,获取单目特征和双目融合特征,将特征回归后得到视频质量;步骤S4:重复步骤S2和S3直到神经网络的网络权重稳定,达到3D图片质量评价的目标;本发明能够有效地对所提供的左右视图图片进行质量分数预测,能够较准确地预测图片的质量分数。

    用于街景理解的基于像素重排重建的语义分割方法及系统

    公开(公告)号:CN110059769B

    公开(公告)日:2022-11-18

    申请号:CN201910359495.X

    申请日:2019-04-30

    Applicant: 福州大学

    Abstract: 本发明涉及一种用于街景理解的基于像素重排重建的语义分割方法及系统,该方法包括:对训练集输入图像进行预处理,使图像标准化并获取相同尺寸的预处理图像;用卷积网络提取通用特征,再获取稠密带孔空间金字塔融合特征,以这两部分级联作为编码网络提取编码特征;从卷积网络中选取中间层特征,结合编码特征计算边缘特征,以基于像素重排技术的稠密网为解码网络,重建图像分辨率,计算解码特征;计算得到语义分割损失和辅助监督的边缘损失,以最小化两者加权和损失为目标对深度神经网络进行训练;利用深度神经网络模型对待分割图像进行语义分割,输出分割结果。该方法及系统有利于提高图像语义分割的准确性和鲁棒性。

    基于子特征融合的轻量化安全帽检测方法

    公开(公告)号:CN115100495A

    公开(公告)日:2022-09-23

    申请号:CN202210801277.9

    申请日:2022-07-08

    Applicant: 福州大学

    Inventor: 柯逍 陈文垚

    Abstract: 本发明涉及一种基于子特征融合的轻量化安全帽检测方法,包括以下步骤:步骤S1:获取安全帽数据图片,并预处理,构建安全帽检测数据集;步骤S2:构建子特征融合的轻量化网络模块,通过低代价卷积操作生成子特征图并与初始特征图进行融合;步骤S3:构建轻量化目标检测网络;步骤S4:对YOLOv5目标检测算法的训练超参数进行调优,利用安全帽检测数据集训练轻量化目标检测网络得到安全帽检测模型;步骤S5:根据安全帽检测模型对输入图片进行检测,获取初步检测结果,对初步检测结果进行解码后采用改进的非极大值抑制算法筛选出最终的检测结果,将检测结果绘制在原图中。本发明能够有效减少检测模型的模型大小,并且对工人是否佩戴安全帽进行精准检测。

    一种自然场景下的书法区域检测及作者识别方法

    公开(公告)号:CN112200184B

    公开(公告)日:2022-07-08

    申请号:CN202011076021.3

    申请日:2020-10-10

    Applicant: 福州大学

    Abstract: 本发明涉及一种自然场景下的书法区域检测及作者识别方法,包括以下步骤:步骤S1:采集书法图片,构建书法区域检测与作者信息数据集;步骤S2:对书法区域检测与作者信息数据集进行预处理;步骤S3:基于CornerNet网络结构,构建书法区域检测及作者识别网络,并根据预处理后的数据集进行训练;步骤S4:将待识别的图片送入训练好的书法区域检测及作者识别网络,获取图片中包含书法作品的区域并识别书法作者。本发明能够高效便捷的检测自然场景下的图片包含的书法区域及作者信息。

Patent Agency Ranking