-
公开(公告)号:CN111401460B
公开(公告)日:2023-04-25
申请号:CN202010213305.6
申请日:2020-03-24
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
IPC: G06F18/2433 , G06F18/2411 , G06F18/2413 , G06F18/232
Abstract: 本发明公开了一种基于限值学习的异常电量数据辨识方法。该方法首先通过异常电量数据分析得出异常电量数据的类型和鉴别算法;然后通过对OneClassSVM算法分析研究,对异常电量数据的鉴别限值进行学习,得到限值学习表,通过限值学习表校核历史数据的异常电量数据,接着通过分析基于密度的聚类算法DBSCAN算法校核历史数据中的离群值,实现基于限值学习的异常电量数据辨识;最后对同样基于密度的聚类算法LOF算法进行分析研究,结合两种基于密度的聚类算法进行实验,同时对多维数据进行离群值辨识,实现了基于密度聚类算法的多维电量数据离群值辨识。
-
公开(公告)号:CN112184763A
公开(公告)日:2021-01-05
申请号:CN202010939522.3
申请日:2020-09-09
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
Abstract: 本发明提供了一种机器人视觉导航中视觉里程计构建方法,包括:提取图像特征点;获取物体边界框的位置;判断提取到的特征点是否在检测得到的物体边界框内,若不是,则剔除特征点;若在物体边界框内,则通过光流跟踪物体边界框内的特征点,并通过光流极线法进行动态点的判断,若物体边界框内动态点数目大于阈值,则认为该物体边界框内物体是运动的,将其中所有特征点剔除。若未超过阈值,则认为该物体边界框内物体是静止的,物体边界框内的特征点是有效特征点。根据有效特征点估算相机运动轨迹,恢复出相机旋转和平移运动,估计出相机位姿,完成视觉里程计的构建。本发明解决了动态环境下位姿估计的不准确问题,提高了定位精度。
-
公开(公告)号:CN111401460A
公开(公告)日:2020-07-10
申请号:CN202010213305.6
申请日:2020-03-24
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
IPC: G06K9/62
Abstract: 本发明公开了一种基于限值学习的异常电量数据辨识方法。该方法首先通过异常电量数据分析得出异常电量数据的类型和鉴别算法;然后通过对OneClassSVM算法分析研究,对异常电量数据的鉴别限值进行学习,得到限值学习表,通过限值学习表校核历史数据的异常电量数据,接着通过分析基于密度的聚类算法DBSCAN算法校核历史数据中的离群值,实现基于限值学习的异常电量数据辨识;最后对同样基于密度的聚类算法LOF算法进行分析研究,结合两种基于密度的聚类算法进行实验,同时对多维数据进行离群值辨识,实现了基于密度聚类算法的多维电量数据离群值辨识。
-
公开(公告)号:CN112184763B
公开(公告)日:2024-09-10
申请号:CN202010939522.3
申请日:2020-09-09
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
Abstract: 本发明提供了一种机器人视觉导航中视觉里程计构建方法,包括:提取图像特征点;获取物体边界框的位置;判断提取到的特征点是否在检测得到的物体边界框内,若不是,则剔除特征点;若在物体边界框内,则通过光流跟踪物体边界框内的特征点,并通过光流极线法进行动态点的判断,若物体边界框内动态点数目大于阈值,则认为该物体边界框内物体是运动的,将其中所有特征点剔除。若未超过阈值,则认为该物体边界框内物体是静止的,物体边界框内的特征点是有效特征点。根据有效特征点估算相机运动轨迹,恢复出相机旋转和平移运动,估计出相机位姿,完成视觉里程计的构建。本发明解决了动态环境下位姿估计的不准确问题,提高了定位精度。
-
公开(公告)号:CN111563452B
公开(公告)日:2023-04-21
申请号:CN202010371935.6
申请日:2020-05-06
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
IPC: G06V40/16 , G06V40/10 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明提供了一种基于实例分割的多人体姿态检测及状态判别方法,包括:采集课堂视频的原始分帧图像;分割出学生个体和非学生个体,以不同颜色的掩码标注不同学生个体,同时进行姿态检测,提取出各学生人体姿态的关键点,并进行标注连接;对学生的听课状态进行具体判别,对学生脸部进行识别和定位,判断所有学生个体是否能检测到正面人脸,如果能,则初步说明该同学处于听课状态,并判断该同学是否处于举手状态;如果无法检测出人脸,则进一步判断其是否处于不听课状态。结合每个学生个体听课状态对学生听课效率进行评估。本发明为实现学生听课状态的判别与分析提供解决方法,具有可实时识别,识别精度高,抗复杂环境干扰性强等优点。
-
公开(公告)号:CN111563452A
公开(公告)日:2020-08-21
申请号:CN202010371935.6
申请日:2020-05-06
Applicant: 南京师范大学镇江创新发展研究院 , 南京师范大学
Abstract: 本发明提供了一种基于实例分割的多人体姿态检测及状态判别方法,包括:采集课堂视频的原始分帧图像;分割出学生个体和非学生个体,以不同颜色的掩码标注不同学生个体,同时进行姿态检测,提取出各学生人体姿态的关键点,并进行标注连接;对学生的听课状态进行具体判别,对学生脸部进行识别和定位,判断所有学生个体是否能检测到正面人脸,如果能,则初步说明该同学处于听课状态,并判断该同学是否处于举手状态;如果无法检测出人脸,则进一步判断其是否处于不听课状态。结合每个学生个体听课状态对学生听课效率进行评估。本发明为实现学生听课状态的判别与分析提供解决方法,具有可实时识别,识别精度高,抗复杂环境干扰性强等优点。
-
公开(公告)号:CN112232240B
公开(公告)日:2024-08-27
申请号:CN202011129588.2
申请日:2020-10-21
Applicant: 南京师范大学
IPC: G06V20/40 , G06V20/52 , G06V10/25 , G06V10/44 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于优化交并比函数的道路抛洒物检测与识别方法,包括如下步骤:搭建基于优化交并比函数的道路抛洒物检测与识别模型;采集道路交通监控视频并进行分帧处理生成道路抛洒物数据集,对训练集图像进行标注,生成标签文件;将训练集全部图像和标签文件输入道路抛洒物检测与识别模型中进行训练,得到训练好的模型;将测试集图像输入训练好的道路抛洒物检测与识别模型进行检测识别,输出对于道路抛洒物的检测识别结果。本发明能够在复杂道路交通背景下对道路抛洒物进行检测和识别,能够输出道路抛洒物位置信息、类别信息以及大致形状特征,对于小目标有较好的检测识别效果,检测速度快、识别精度高。
-
公开(公告)号:CN113392701B
公开(公告)日:2024-04-26
申请号:CN202110504527.8
申请日:2021-05-10
Applicant: 南京师范大学
IPC: G06V20/10 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了一种基于YN‑Net卷积神经网络的输电线路障碍物检测方法,包括如下步骤:基于输电线路巡检机器人搭载的ZED双目摄像头采集输电线路障碍物图像;对采集到的输电线路障碍物图像进行预处理并制成数据集;搭建YN‑Net卷积神经网络,对YN‑Net卷积神经网络进行充分训练,得到训练好的YN‑Net卷积神经网络模型;使用YN‑Net卷积神经网络模型对采集到的输电线路障碍物实时图像进行分类,根据输入图像中存在障碍物与不存在障碍物的概率值来判断输电线路巡检机器人前方是否存在障碍物。本发明能够提升卷积神经网络的实时性与可靠性,解决了目前输电线路障碍物检测算法准确率不高,实时性不好等问题,并且具有很高的可移植性,可应用于嵌入式开发平台,应用前景广泛。
-
公开(公告)号:CN112818871B
公开(公告)日:2024-03-29
申请号:CN202110153554.5
申请日:2021-02-04
Applicant: 南京师范大学
IPC: G06V20/40 , G06V20/52 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于半分组卷积的全融合神经网络的目标检测方法,包括:搭建半分组卷积模块;搭建全融合神经网络;获取电梯厢内目标物的数据集;将数据集中的图像按比例随机分为训练数据集和测试数据集,并对训练数据集图像中的目标物和人进行标注,生成标签文件,将训练数据集全部图像及标签文件输入全融合神经网络进行训练,得到训练好的权重文件;获得检测到的目标物和人在图像中的位置及检测置信度;筛选出可信的目标,去除重复的目标框,判断目标物是否已经进入电梯厢。本发明在保证特征提取的质量同时,有效减少了卷积运算的参数量,提高了计算速度;具有模型轻量、目标检测速度快、准确率高的优点,可应用在性能有限的嵌入式设备上。
-
公开(公告)号:CN111507227B
公开(公告)日:2023-04-18
申请号:CN202010280435.1
申请日:2020-04-10
Applicant: 南京汉韬科技有限公司 , 南京师范大学 , 南京吉仁智能科技有限公司
IPC: G06V40/16 , G06V10/774 , G06V10/82 , G06N3/0464
Abstract: 本发明提供了基于深度学习的多学生个体分割及状态自主识别方法,包括:采集正常上课视频,进行分帧处理,得到课堂视频的连续帧图像;分割出学生个体和非学生个体,将不学生生个体标记为不同颜色的掩码;通过人脸特征点定位方法找到每个学生个体的人眼特征点,计算每个学生个体的人眼闭合度特征值,判断每个学生个体当前是否处于听课状态;判断所有学生个体是否检测到人脸,判断学生个体的听课状态等级;结合每个学生个体是否处于听课状态及每个学生个体是否处于未抬头状态设计了整个课堂时段学生听课效率评估方法。本发明为实现学生听课状态自主识别及听课效率的判别提供解决方法,具有速度快、识别率高、环境适应能力强的优点。
-
-
-
-
-
-
-
-
-