基于YOLOv5和MobileNetV2的车辆型号识别方法

    公开(公告)号:CN113743233B

    公开(公告)日:2023-08-01

    申请号:CN202110912415.6

    申请日:2021-08-10

    Applicant: 暨南大学

    Abstract: 本发明公开了基于YOLOv5和MobileNetV2的车辆型号识别方法,包括以下步骤:S1、获取含车辆型号标签的公开车辆图片数据集;S2、对图片数据集按YOLOv5方式打标签;S3、为图片进行预处理;S4、进行YOLOv5训练,反复优化得到模型参数;S5、对原始图片数据集按YOLOv5标签的锚框数据进行裁剪,尽可能裁剪至图片仅含车辆信息;S6、修改MobileNetV2模型,拼接训练好的YOLOv5模型和修改后的MobileNetV2模型;S7、使用标签为车辆型号的原始数据集,预处理后对新拼接得到的模型进行训练,反复优化提升模型性能,得到优化训练完成的识别模型并将其用于实际车辆型号识别。本发明方法解决现有模型识别速率低,不足以满足交通系统的实时性、高效性以及在条件受限的情况下识别的准确率偏低的问题。

    一种衣着识别方法、系统、介质及设备

    公开(公告)号:CN115100681B

    公开(公告)日:2024-10-15

    申请号:CN202210721153.X

    申请日:2022-06-24

    Applicant: 暨南大学

    Abstract: 本发明公开了一种衣着识别方法、系统、介质及设备,该方法包括下述步骤:获取多场景下的摄像头视频,将其中的黑白视频着色,整合得到全彩色的图像数据库,对图像数据库进行解帧和标注,构建衣着数据集,基于YOLOv5模型构建衣着识别网络,在主干网络层尾部增加坐标注意力模块,在Neck网络层将YOLOv5模型中的拼接模块替换为Concat_bifpn模块;基于衣着数据集训练衣着识别网络;进行复合检测,基于YOLOv5模型对测试集中的人物进行识别,裁剪提取得到人像结果集,输入衣着识别网络得到衣着识别结果图像集。本发明解决了摄像头环境下目标检测难的问题,实现了精度与速度平衡的高效目标检测效果。

    一种基于Cycle-GAN的图像加雾方法

    公开(公告)号:CN117408891A

    公开(公告)日:2024-01-16

    申请号:CN202311714540.1

    申请日:2023-12-14

    Applicant: 暨南大学

    Abstract: 本发明涉及计算机视觉的图像分析技术领域,特别是涉及一种基于Cycle‑GAN的图像加雾方法,包括:获取待加雾图像;将所述待加雾图像输入预设的图像生成模型中,输出加雾后的目标图像,其中,所述图像生成模型由训练集训练获得,所述训练集包括无雾的图像数据和文本数据、有雾的图像数据和文本数据,所述图像生成模型采用Cycle‑GAN网络构建。本发明通过输入待处理的图像,将图像与文本信息特征融合,输入在多模态扩散文本语义约束下的Cycle‑GAN网络中生成目标图像,提升图像雾气效果,生成更符合实际效果和目标需求的图像。

    一种新闻人物识别方法及装置
    6.
    发明公开

    公开(公告)号:CN115905602A

    公开(公告)日:2023-04-04

    申请号:CN202211365199.9

    申请日:2022-11-03

    Applicant: 暨南大学

    Abstract: 本发明实施例公开了一种新闻人物识别方法及装置,该方法包括:采集任意一个新闻文本,所述新闻文本至少包括图像数据;基于所述图像数据识别所述新闻文本中的人物图像,提取所述人物图像;根据预设的关系库识别所述人物图像对应的人物名称,所述关系库用于记录不同的人物分别所对应的人物图像和人物名称。通过先构建关系库,使得人物名称与人物图像有了对应的匹配关系,因此当对应于所采集的任意一个新闻文本,通过提取新闻文本中的人物图像,结合关系库中的匹配关系,可以快速识别到与人物图像对应的人物名称,准确度高,整体性能好。

    一种基于深度神经网络的夜间视频着色方法

    公开(公告)号:CN113920455A

    公开(公告)日:2022-01-11

    申请号:CN202111009898.5

    申请日:2021-08-31

    Applicant: 暨南大学

    Abstract: 本发明涉及一种基于深度神经网络的夜间视频着色方法,包括步骤:S1、建立目标检测神经网络模型,输入待处理的视频图像,利用目标检测算法,检测目标实例并生成裁剪的目标图像;S2、建立着色网络,通过构建两个端到端训练的骨干网络,包括实例着色网络和全图像着色网络,进行实例着色和全图像着色;再构建两个着色网络对应层级,进行端到端训练的全卷积神经网络;S3、建立融合模块,选择性地融合从实例着色网络和全图像着色网络中提取到的特征,最终获得着色后的夜间视频图像。本发明通过输入待处理的视频图像,将图像经过目标检测网络,实例图像着色和全图像着色的全卷积网络,以及融合模块的处理,最终获得着色后的夜间视频图像。

    一种基于深度神经网络的夜间视频着色方法

    公开(公告)号:CN113920455B

    公开(公告)日:2024-08-06

    申请号:CN202111009898.5

    申请日:2021-08-31

    Applicant: 暨南大学

    Abstract: 本发明涉及一种基于深度神经网络的夜间视频着色方法,包括步骤:S1、建立目标检测神经网络模型,输入待处理的视频图像,利用目标检测算法,检测目标实例并生成裁剪的目标图像;S2、建立着色网络,通过构建两个端到端训练的骨干网络,包括实例着色网络和全图像着色网络,进行实例着色和全图像着色;再构建两个着色网络对应层级,进行端到端训练的全卷积神经网络;S3、建立融合模块,选择性地融合从实例着色网络和全图像着色网络中提取到的特征,最终获得着色后的夜间视频图像。本发明通过输入待处理的视频图像,将图像经过目标检测网络,实例图像着色和全图像着色的全卷积网络,以及融合模块的处理,最终获得着色后的夜间视频图像。

    一种衣着识别方法、系统、介质及设备

    公开(公告)号:CN115100681A

    公开(公告)日:2022-09-23

    申请号:CN202210721153.X

    申请日:2022-06-24

    Applicant: 暨南大学

    Abstract: 本发明公开了一种衣着识别方法、系统、介质及设备,该方法包括下述步骤:获取多场景下的摄像头视频,将其中的黑白视频着色,整合得到全彩色的图像数据库,对图像数据库进行解帧和标注,构建衣着数据集,基于YOLOv5模型构建衣着识别网络,在主干网络层尾部增加坐标注意力模块,在Neck网络层将YOLOv5模型中的拼接模块替换为Concat_bifpn模块;基于衣着数据集训练衣着识别网络;进行复合检测,基于YOLOv5模型对测试集中的人物进行识别,裁剪提取得到人像结果集,输入衣着识别网络得到衣着识别结果图像集。本发明解决了摄像头环境下目标检测难的问题,实现了精度与速度平衡的高效目标检测效果。

    一种手性二氢喹诺酮类化合物的制备方法

    公开(公告)号:CN117800981A

    公开(公告)日:2024-04-02

    申请号:CN202311799243.1

    申请日:2023-12-25

    Applicant: 暨南大学

    Inventor: 陈兴宽 李志颖

    Abstract: 本发明属于有机合成技术领域,具体涉及一种手性二氢喹诺酮类化合物的制备方法。本发明利用N‑杂环卡宾(NHC)作为催化剂,氯代醛与氮杂邻苯醌前体在NHC、碱性试剂的作用下通过氮杂双烯狄尔斯–阿尔德反应生成手性二氢喹诺酮。本发明的制备方法无需使用过渡金属作为催化剂,可在较温和的条件下进行反应,具有绿色环保、成本低、底物选择性广、反应条件温和等优势。此外,通过优化制备方法的反应条件使其产物的产率高、纯度高,以及具有独特的顺式选择性和优良的对映选择性。本发明为手性二氢喹诺酮类化合物提供了全新路线和新思路,可在药物中间体等领域中发挥重要作用具有良好的应用价值和潜力。

Patent Agency Ranking