一种PointTrack框架下基于窗函数的点云采样方法

    公开(公告)号:CN112561950B

    公开(公告)日:2022-12-13

    申请号:CN202011547135.1

    申请日:2020-12-24

    Applicant: 福州大学

    Abstract: 本发明涉及一种PointTrack框架下基于窗函数的点云采样方法,包括以下步骤:步骤S1:获取视频图像帧中所有目标的2D边界框,并输入到神经网络中进行分割,得到对应的前景与背景;步骤S2:根据分割结果对边界框在上下左右四个方向进行扩展,并将扩展后割的结果使用窗函数进行点云采样,分别得到前景和背景相对应的2D点云采样结果;步骤S3:将得到的前景点云进行整合,计算对应的颜色特征向量和形状特征向量,将得到的背景点云进行整合,并计算对应的颜色特征向量、形状特征向量以及类别向量,最终将得到的向量串联输入到PointTrak模型中。本发明能够使用窗函数更好的对点云采样进行控制,可以让采样的点更偏向于反应轮廓信息或者颜色信息,提高PointTrack多目标跟踪效果。

    基于样本增强与实例感知的真实场景行人检索方法

    公开(公告)号:CN115116094A

    公开(公告)日:2022-09-27

    申请号:CN202210801244.4

    申请日:2022-07-08

    Applicant: 福州大学

    Inventor: 柯逍 刘浩

    Abstract: 本发明涉及一种基于样本增强与实例感知的真实场景行人检索方法,包括以下步骤:步骤S1:将待处理的图像通过检测模型,获得预测的边界框;步骤S2:将预测边界框送入样本增强组合SEC,同时将图像的真实边界框会送入SEC,通过SEC随机抖动后生成若干边界框;步骤S3:在重识别阶段,输入的图像被送入全粒度特征提取网络OSNet的1‑3层网络结构,提取整体图像特征;步骤S4:在整体图像特征与检测阶段产生的边界框送入特征裁剪模块RoIAlign,获得根据边界框从整体图像中裁剪后得到的行人特征;步骤S5:裁剪所得的行人特征被送入OSNet4‑5层网络结构;步骤S6:通过实例感知损失函数进行优化,利用无标签信息以监督特征学习。本发明实现更高效且更具判别性的行人检索。

    基于多任务级联卷积神经网络的车牌检测方法

    公开(公告)号:CN110033002B

    公开(公告)日:2022-07-08

    申请号:CN201910316667.5

    申请日:2019-04-19

    Applicant: 福州大学

    Inventor: 郭文忠 丁宁 柯逍

    Abstract: 本发明涉及一种基于多任务级联卷积神经网络的车牌检测方法。针对传统的车牌检测方法可扩展性差,泛化能力差,车牌检测效果不佳造成的车牌识别率下降等问题提出了一种多任务级联卷积神经网络的车牌检测方法。为了获得复杂图像中车牌精确定位,该方法通过搭建一种新的多任务级联卷积神经网络模型再CCPD车辆数据上进行大规模训练,其中本发明的网络模型的卷积层采用和BN层相结合的方法来提高对车牌的特征提取能力,加快模型训练速度,使用Relu激活函数增加模型的非线性能力,采用多任务损失函数来提高网络对车牌的分类和回归框准确性,并且回归反馈出车牌的四个关键点信息。最后将训练好的模型应用于车牌检测中。该方法简单灵活,具有较强的实际应用性。

    一种基于框线特征和像素分布的表格文档图像分类方法

    公开(公告)号:CN110032989B

    公开(公告)日:2022-07-08

    申请号:CN201910327555.X

    申请日:2019-04-23

    Applicant: 福州大学

    Inventor: 柯逍 王俊强

    Abstract: 本发明涉及一种基于框线特征和像素分布的表格文档图像分类方法,首先对待分类图像进行灰度化和二值化,接着对得到的二值图像进行基于连通域分析的框线增强操作,对框线增强之后的图像进行基于深度学习方法的图像去噪;对经过预处理的待测图像,用基于形态学的直线检测方法分别检测并提取出横、纵框线,并将其细化,然后采用基于Npcanny的直线检测方法获取框线条数信息;对横框线图像进行水平方向投影,对纵框线进行垂直方向投影,并记录投影后的位置以及像素值,将得到的框线坐标与长度信息与模板库中已录入的标准模板信息进行匹配,筛选出与待分类图像相似度最高的模板图像,最后输出待分类图像的分类结果。本发明能够有效地对表格文档图像进行分类。

    一种融合行人重识别和人脸检测的单目标人物跟踪方法

    公开(公告)号:CN112668483B

    公开(公告)日:2022-06-10

    申请号:CN202011600521.2

    申请日:2020-12-30

    Applicant: 福州大学

    Abstract: 本发明涉及一种融合行人重识别和人脸检测的单目标人物跟踪方法,包括步骤S1:输入待处理的视频,得到跟踪模板;S2:根据模板信息,获得对应图像中的人脸图像,将其进行保存;同时训练一个在线分类器辅助后续的跟踪算法;S3:判断当前预测框中的人脸图像与S2中保存的人脸图像是否是同一个人;若是同一个人,则根据预测框信息实现跟踪目标区域的获取,否则进入S5;S5:对当前视频画面视频检测出当前视频画面中所有人物的位置信息获得人物图像列表;使用fast‑ReID行人重识别算法,根据查询图像,从待检索图像中检索出相似度最高的图像,从而实现跟踪错误矫正,并将相似度最高的图像作为新的跟踪模板,返回S2。本发明能够提高单目标人物跟踪效果。

    基于表情行为特征提取的通过视频评估学习专注力的方法

    公开(公告)号:CN112287891B

    公开(公告)日:2022-06-10

    申请号:CN202011319889.1

    申请日:2020-11-23

    Applicant: 福州大学

    Inventor: 柯逍 缪欣

    Abstract: 本发明提出一种基于表情及行为特征提取的通过视频评估学习专注力的方法,首先通过人体骨骼点检测方法AlphaPose获取人体骨架,通过轻量化人脸检测模型检测人脸;接着将骨架编码转换为图像,通过神经网络分类器进行动作分类;将获取到的人脸框,先通过VGG‑A网络提取特征,再经过Segmentation网络进一步拟合得到精确的人脸位置,接着将人脸裁剪为多个区域,并使用CNN网络提取特征,通过自注意力模块对不同人脸区域进行加权,融合多个区域的局部特征形成整体特征进行表情分类;最后融合动作和表情识别结果,通过LSTM网络得到最终的专注力分析结果。其针对学生行为构建了有效的运动特征,相对传统的动作识别难以有效地解决视角差异和动作差异带来的问题。

    一种基于纯度检测和空间注意力网络的人脸聚类方法

    公开(公告)号:CN109829427B

    公开(公告)日:2022-05-17

    申请号:CN201910097235.X

    申请日:2019-01-31

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于纯度检测和空间注意力网络的人脸聚类方法。首先获取人脸识别数据集,训练空间注意力网络,对待聚类的所有人脸图像提取深度特征;接着构造距离矩阵,计算初始聚类结果;然后对每个聚类簇进行纯度检测,过滤掉不属于该类别的人脸图像,并删除不符合条件的聚类簇;最后对过滤后的聚类簇通过空间注意力网络提取集合特征,计算聚类簇之间的距离并不断融合得到最终结果。本发明能够改善人脸聚类的效果。

    一种基于深度学习的垃圾分类方法

    公开(公告)号:CN112541544B

    公开(公告)日:2022-05-13

    申请号:CN202011461440.9

    申请日:2020-12-09

    Applicant: 福州大学

    Inventor: 柯逍 陈柏涛

    Abstract: 本发明涉及一种基于深度学习的垃圾分类方法。首先使用爬虫爬取并构建深度学习训练集,将该版数据集称为初始数据集;然后使用不同的网络结构在初始数据集的基础上训练模型,得到多个模型;接着使用这些模型结合爬虫进行数据的自动爬取、清洗、打标,完成对初始数据集的自动扩充,构建最终版数据集;最后选出表现最好的网络结构作为主干网络,在最终构建的数据集上训练模型,并且使用各种优化策略进行优化,提升模型的准确率与鲁棒性。

    一种基于BERT的自动填补空缺文本方法

    公开(公告)号:CN112395841B

    公开(公告)日:2022-05-13

    申请号:CN202011291822.1

    申请日:2020-11-18

    Applicant: 福州大学

    Inventor: 柯逍 卢恺翔

    Abstract: 本发明提出一种基于BERT的自动填补空缺文本方法,包括以下步骤;步骤S1:以公开完型填空CLOTH数据集作为训练数据基础,利用分词器对进行预处理,提取出文章的内容和填空选项;步骤S2:将处理过的数据集通过联合调节所有层中的上下文来预先训练深度双向表示模型;并利用预训练模型提供语言模型,通过额外的输出层对其进行微调,最后以加入问题的位置信息和该语言模型共同组成编码器;步骤S3:用全连接层、gelu激活函数层、归一层和全连接层依次堆叠,构成解码器,并将编码器结果输入到解码器解码;步骤S4:以解码器的输出预测出空格处应该出现的单词;本发明能够实现利用人工智能完成对有空缺的文本进行预测和校对,辅助校对人员进行审查出版书本的工作。

    基于全卷积的无分支结构目标检测方法

    公开(公告)号:CN114283320A

    公开(公告)日:2022-04-05

    申请号:CN202111603923.2

    申请日:2021-12-25

    Applicant: 福州大学

    Inventor: 柯逍 林心茹 刘浩

    Abstract: 本发明涉及一种基于全卷积的无分支结构标检测方法,包括以下步骤:步骤S1:获取目标检测数据集,并预处理,生成训练集;步骤S2:构建可重参数化的多分支全卷积网络模型;步骤S3:基于训练集对可重参数化的多分支全卷积网络模型进行训练,通过随机梯度下降方法,优化模型参数;步骤S4:对训练好的多分支全卷积网络模型进行重参数化,构建无分支全卷积网络,作为推理模型;步骤S5:将待测试图像输入推理模型进行测试。本发明能够有效地减少边缘小目标的漏检。

Patent Agency Ranking