-
公开(公告)号:CN119992048A
公开(公告)日:2025-05-13
申请号:CN202510058417.1
申请日:2025-01-14
Applicant: 南京邮电大学
IPC: G06V10/25 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于改进YOLOv11的目标检测方法及系统,旨在提升机械臂在复杂环境中的抓取精准度和操作效率.该方法结合增强现实技术、目标检测算法、深度传感技术及先进的运动控制系统,具体包括以下步骤:利用RGB‑D摄像头采集数据,建立三维空间模型,并对深度图像与彩色图像进行精确对齐处理;基于昇腾Atlas 200I DK A2开发板,结合改进后的YOLOv11模型,实现目标的高效检测与识别;通过坐标变换方法,将目标从像素坐标系转换至相机坐标系,再进一步映射至机械臂基坐标系的三维空间位置;最后,通过大象机械臂MyCobot 280M5完成抓取操作.通过结合RGB‑D信息、深度学习检测算法和三维坐标转换方法,本发明的系统实现了复杂环境下机械臂的高效、精准目标抓取,具有高精度、高实时性、易维护、易集成部署等特点。
-
公开(公告)号:CN117473420A
公开(公告)日:2024-01-30
申请号:CN202311170937.9
申请日:2023-09-12
Applicant: 南京邮电大学
IPC: G06F18/243 , G06F18/10 , G06K7/10 , G06N5/01 , G06N20/20
Abstract: 本发明公开一种基于RFID技术的非接触式动态手势识别方法及系统,属于RFID应用技术领域;方法主要包括对手势数据进行预处理,对预处理后的手势数据利用一种基于KL散度的滑动窗口算法进行低精度的手势分割,然后引入图像分割中的帧差法思想对边缘窗口进行分割,以达到更高的手势分割精度;将分割后的手势数据划分为子手势,建立基于随机森林的分层手势识别模型,其通过将手势概率向量及累加概率向量与阈值进行比较,在保证较高识别准确性的基础上能够有效提升手势识别的实时性;解决当前存在的方法中手势分割精度低以及手势识别实时性较差的问题。
-
公开(公告)号:CN114757313A
公开(公告)日:2022-07-15
申请号:CN202210424375.5
申请日:2022-04-21
Applicant: 江苏金恒信息科技股份有限公司 , 南京邮电大学
Abstract: 本发明公开一种基于RFID的智能安全帽周边环境信息采集系统及方法,结合可编程RFID标签和各种传感器,构建一个实时采集安全帽周边环境信息的方法和系统。本发明采用一种嵌入式图像传感器,利用较少的能量和运算资源获取周围环境的灰度图像,将信息存储到可编程RFID标签的存储区域。可编程RFID标签和RFID阅读器保持交互,将获取的传感信息持续发送到RFID阅读器,并存入管理后台数据库。当管理后台检测到例如跌倒等异常情况时,启动图像传感器获取智能安全帽所处环境的灰度图像信息。本发明具有低成本、易于维护的优点,实时性强,同时具有很好的功能扩展性。
-
公开(公告)号:CN118312509A
公开(公告)日:2024-07-09
申请号:CN202410289519.X
申请日:2024-03-13
Applicant: 南京邮电大学
Abstract: 本发明提供一种用于多终端设备的人工智能模型管理方法及系统,该方法在服务器端构建数据库,并创建用户信息表、模型信息表、模型训练信息表和模型训练细节信息表;根据需求数据,用户端分析并选择需要的人工智能模型,并将该人工智能模型上传至服务器端,同时将该人工智能模型的信息录入数据库中的模型信息表;判定对上传至服务器端的人工智能模型是否进行训练,如是,对人工智能模型进行模型训练;将终端设备要搭载的人工智能模型,从服务器端进行下发部署;对部署于终端设备的人工智能模型进行操作;本发明能够实现人工智能模型在多终端设备上的高效管理,能够有效提高模型的实时性能,能够广泛应用于无人机目标检测、异常检测等相关需要进行用于多终端设备的人工智能模型管理的应用场景。
-
公开(公告)号:CN118115899A
公开(公告)日:2024-05-31
申请号:CN202410297680.1
申请日:2024-03-15
Applicant: 南京邮电大学
IPC: G06V20/17 , G06V10/44 , G06V10/80 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/048 , G06N3/08
Abstract: 本发明提供一种基于改进YOLOv5的无人机视角图像小物体目标实时识别方法,通过由无人机的机载摄像头获得无人机视角图像数据集;将无人机视角图像数据集转化为YOLOv5所需的txt格式文件,得到训练数据集,并划分为训练子集和验证子集;构建基于改进YOLOv5的小物体目标检测模型包括输入模块、主干网络模块Backbone、颈部网络模块Neck network和输出模块;得到训练后的基于改进YOLOv5的小物体目标检测模型;使用训练后的基于改进YOLOv5的小物体目标检测模型,进行小目标识别;本发明能够提高对无人机图像小目标检测的精确性,降低错误识别率,能够提高无人机视角图像的小目标检测性能。
-
公开(公告)号:CN113901758A
公开(公告)日:2022-01-07
申请号:CN202111133794.5
申请日:2021-09-27
Applicant: 南京邮电大学
IPC: G06F40/126 , G06F40/242 , G06F40/295 , G06N3/04 , G06N3/08
Abstract: 一种面向知识图谱自动构建系统的关系抽取方法,首先对文本进行编码转换成词向量,初步提取文本特征;再利用文本的句法依存结构生成句法依存树,通过对每种关系类别进行加权生成带权依存邻接矩阵,使用图卷积神经网络对文本中的句法依存信息进行提取;同步地,将多头注意力机制直接作用于编码后的文本生成注意力矩阵,使用相同结构的图卷积神经网络对文本本身句法依存信息以外的信息进行提取;最后得到两个实体和句子本身的特征表示,使用前馈神经网络和归一化指数函数对所有可能的关系类别进行打分,选取分数最高的关系作为关系分类结果。本发明能够充分获取文本不同维度的信息,在关系抽取的公开数据集上取得了优异的效果。
-
公开(公告)号:CN112818768A
公开(公告)日:2021-05-18
申请号:CN202110067137.9
申请日:2021-01-19
Applicant: 南京邮电大学
Abstract: 本发明公开了一种基于元学习的变电站改扩建违章行为智能化识别方法,首先,采集图片,并构造难样本,完成场景的标注,形成小样本数据集,在ImageNet数据集上利用元学习方法预训练YOLOv5模型,并在采集的小样本数据集上精调得到最终的YOLOv5模型;其次,将训练好的YOLOv5模型部署到移动端,完成对作业人员、施工机具、送变电设备等检测物的识别;最后,根据施工作业要求自适应设置虚拟电子围栏,基于所设置的虚拟围栏进行人员机具的越界违章行为智能化识别并告警。本发明区别于传统的物理围栏及其他类型的虚拟电子围栏技术,不仅能有效识别地面违章行为,还能识别高空越界违章行为,且部署灵活,操作简单,实时性强,可重用性好。
-
公开(公告)号:CN119992049A
公开(公告)日:2025-05-13
申请号:CN202510058430.7
申请日:2025-01-14
Applicant: 南京邮电大学
Abstract: 本发明提出一种基于DST‑YOLO的无人机航拍小目标检测方法,所述方法包含以下步骤:步骤1:以YOLOv11为基础网络,构建改进后的网络模型.步骤2:获得开源的无人机视角下小目标图像数据集.步骤3:配置网络模型所需的训练环境,并将网络模型加载到配置好的训练环境中.步骤4:利用经训练所获得的网络模型,针对待检测的无人机航拍小目标实施检测.本发明通过对YOLOv11的改进,在提高检测的精确度的同时,也减少了模型参数,可以实现模型轻量化和性能的平衡。
-
公开(公告)号:CN119963807A
公开(公告)日:2025-05-09
申请号:CN202510018172.X
申请日:2025-01-06
Applicant: 南京邮电大学
IPC: G06V10/25 , G06V10/52 , G06V10/42 , G06V10/26 , G06V10/80 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/09
Abstract: 本发明提供一种面向RGB‑D的融合模型及其目标检测方法.首先,利用Canny边缘检测算法生成真值图的边缘图,将其作为主干网络的额外输入特征,以丰富特征信息并辅助模型的深度学习.然后,利用MobileNetV2对RGB图像进行多层次特征提取,并通过基于残差网络ResNet‑152的编码器对深度图像和边缘图像进行多层特征抽取,将边缘特征信息整合到MobileNetV2编码器提取的RGB图像特征中,利用多尺度感知融合模块与全局融合模块,结合RGB特征与深度特征的互补语义信息,完成跨模态特征的分层融合.最后,将获得的多个融合特征经过解码后,逐层输入至解码过程中的边缘加强融合模块,通过设计的网络损失监督RGB流和深度流检测结果的融合,输出最终的显著性检测结果,从而提高在背景复杂、显著目标边界模糊的情况下的检测效果。
-
公开(公告)号:CN119672225A
公开(公告)日:2025-03-21
申请号:CN202411754767.3
申请日:2024-12-02
Applicant: 南京邮电大学
Abstract: 本发明提出一种基于3D高斯喷溅的三维场景重建和实时定位方法及系统.通过单目、双目或RGB‑D摄像头采集三维场景数据,使用ORB SLAM3技术构建特征点云,获取旋转、缩放等信息.数据采集后,通过3D高斯喷溅技术处理,实现三维场景重建,并将地图本地存储.定位时,对ORB SLAM3采集的特征点进行比对,匹配当前场景下最优特征点位置并反馈,实现实时定位.系统支持本地地图及实时定位的高仿真可视化显示,适用于无人车巡航、无人机巡检和智能机器人定位,提供高精度三维场景重建和实时定位功能。
-
-
-
-
-
-
-
-
-