-
公开(公告)号:CN115481678A
公开(公告)日:2022-12-16
申请号:CN202211030539.2
申请日:2022-08-26
Applicant: 南京信息职业技术学院
Abstract: 本发明公开了一种基于高通滤波和l21范数的图神经网络系统的商品分类方法,包括接收n个商品的特征矩阵和邻接矩阵,其中,特征矩阵的每一行表示一个商品的图节点特征;利用第一图卷积神经网络层、带泄露线性整流函数层以及第二图卷积神经网络层初步处理特征矩阵,获得原始信号;基于邻接矩阵,利用基于高通滤波和l21范数的图神经网络层处理原始信号,获得第一矩阵,第一矩阵每行的各元素表示为对应商品的一种类别;利用对数归一化指数函数层,将第一矩阵转换为第二矩阵,第二矩阵的各元素表示第一矩阵中对应元素的概率;基于最大值原则,将第二矩阵各行最大元素对应的第一矩阵中的类别,确定为对应商品的分类。本发明能够对多个商品进行分类。
-
公开(公告)号:CN115082831A
公开(公告)日:2022-09-20
申请号:CN202210791366.X
申请日:2022-07-07
Applicant: 南京信息职业技术学院
Abstract: 本发明公开一种基于分数范数和最小最大凹罚的运动目标检测方法,包括:获取视频;处理获取的视频,获得视频矩阵;将获得的视频矩阵输入到预构的基于分数范数和最小最大凹罚的运动目标检测模型,以检测对应的运动目标;其中,基于分数范数和最小最大凹罚的运动目标检测模型包括分数范数和最小最大凹罚函数;所述分数范数用于逼近传统鲁棒主成分分析中的稀疏度函数;所述最小最大凹罚函数用于逼近传统鲁棒主成分分析中的低秩函数。本发明能够检测视频中的运动目标。
-
公开(公告)号:CN115082510A
公开(公告)日:2022-09-20
申请号:CN202210797150.4
申请日:2022-07-08
Applicant: 南京信息职业技术学院
Abstract: 本发明公开了一种基于非凸拉普拉斯算子的视频前背景分离方法及系统,获取视频信息并将其转为对应二维矩阵,输入到预先构建的基于非凸拉普拉斯算子的视频前背景分离模型,利用交替方向乘子法求解所述基于非凸拉普拉斯算子的视频前背景分离模型,得到视频的前景和背景;获取鲁棒主成分分析模型;采用非凸的拉普拉斯核范数替代鲁棒主成分分析模型中的秩函数,采用非凸的拉普拉斯范数替代鲁棒主成分分析模型中的l0范数,同时在鲁棒主成分分析模型中加入噪声项得到所述基于非凸拉普拉斯算子的视频前背景分离模型。优点:具有抗噪声强,对传统鲁棒主成分分析方法的稀疏项和低秩项逼近程度高等优点。
-
公开(公告)号:CN114818872A
公开(公告)日:2022-07-29
申请号:CN202210330773.0
申请日:2022-03-30
Applicant: 南京信息职业技术学院
IPC: G06K9/62 , G06N3/04 , G06V10/762 , G06V10/82
Abstract: 本发明涉及一种基于改进YOLOv4的图像目标检测方法,基于现有YOLOv4路径增强网络进行改进,通过增加检测层的设计,加强浅层特征融合的效果,并结合聚类方法下,所获图像集对应的各先验框尺寸,实现各检测层的高精度特征提取,并且引入多尺度池化模块并行结构、结合卷积处理与插值处理的金字塔池化模块,进一步特征层的检测精度,进而有效提高对图片目标物检测的准确率;在实际的仿真实验当中,本发明设计方法表现出了优秀的目标检测准确率,在PASCAL VOC2007和VOC2012两个数据集上的mAP分别提高了2.03%和1.94%。
-
公开(公告)号:CN118506561A
公开(公告)日:2024-08-16
申请号:CN202311162082.5
申请日:2023-09-08
Applicant: 南京信息职业技术学院
IPC: G08G1/01 , G08G1/065 , G06N3/0464 , G06N3/0442 , G06N3/042 , G06N3/0499
Abstract: 本发明公开了一种基于线性门控图信息表征的长时交通流量预感知方法,包括以下步骤:(1)获取原始交通流量数据信息,并对交通流量数据信息进行时间、空间和特征的三维转换;(2)将得到的交通流量数据对应的三维张量依次通过第一卷积神经网络、L个空时处理块、第二卷积神经网络;其中,每个空时处理块包括线性门控周期趋势分解模块、局部增强模块和动态自适应谱图信息表征模块三部分;(3)使用数据训练网络,并对交通流进行预测;本发明提高了对时间依赖性的获取;更精确的获取交通流量数据中存在空间依赖性。
-
公开(公告)号:CN113723183A
公开(公告)日:2021-11-30
申请号:CN202110828989.5
申请日:2021-07-21
Applicant: 南京信息职业技术学院
Abstract: 本发明公开了一种鲁棒的低秩稀疏分解的运动目标检测方法,采用γ范数更好的逼近传统低秩稀疏分解方法中的秩函数;采用拉普拉斯尺度混合(Laplacian scale mixture,LSM)更好的逼近传统低秩稀疏分解算法中的稀疏度函数;引入了运动信息向量矩阵,能够更好的辅助判断当前像素是否属于运动目标,提高运动目标检测的精度;引入的噪声项能够较好的表达自然界中的噪声感染,提高鲁棒的低秩稀疏分解方法在运动目标检测方面的鲁棒性。
-
公开(公告)号:CN114648540B
公开(公告)日:2025-04-11
申请号:CN202210291492.9
申请日:2022-03-22
Applicant: 南京信息职业技术学院
IPC: G06T7/11 , G06N3/0464 , G06V10/40 , G06V10/80 , G06V10/82
Abstract: 本发明公开了一种基于MECAU‑Net网络的医学图像分割方法,包括:在MECAU‑Net网络的编码端采用2×2偶数卷积模块对导入的医学图像进行特征提取;构建与2×2偶数卷积模块平行的4×4偶数卷积通路,采用4×4偶数卷积核对图像信息进行提取,并且将提取得到的信息直接传递给编码网络的主干部分,以融合不同感受野内的特征信息;在每一层对待分割的特征图进行对称填充,再将获取到的信息通过拼接的方式传递给对应的主体网络进行下一步池化,在消除偶数卷积导致的像素偏移的同时扩展偶数卷积核的感受野。本发明能够在提取更丰富的信息的同时几乎不增加额外开销,利用尽可能少的计算开销得到更好的分割结果。
-
公开(公告)号:CN114818872B
公开(公告)日:2024-12-06
申请号:CN202210330773.0
申请日:2022-03-30
Applicant: 南京信息职业技术学院
IPC: G06V10/762 , G06V10/25 , G06V10/82 , G06N3/0464
Abstract: 本发明涉及一种基于改进YOLOv4的图像目标检测方法,基于现有YOLOv4路径增强网络进行改进,通过增加检测层的设计,加强浅层特征融合的效果,并结合聚类方法下,所获图像集对应的各先验框尺寸,实现各检测层的高精度特征提取,并且引入多尺度池化模块并行结构、结合卷积处理与插值处理的金字塔池化模块,进一步特征层的检测精度,进而有效提高对图片目标物检测的准确率;在实际的仿真实验当中,本发明设计方法表现出了优秀的目标检测准确率,在PASCAL VOC2007和VOC2012两个数据集上的mAP分别提高了2.03%和1.94%。
-
公开(公告)号:CN118865676A
公开(公告)日:2024-10-29
申请号:CN202410888264.9
申请日:2024-07-04
Applicant: 南京信息职业技术学院
IPC: G08G1/01 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种门控时空融合Transformer的交通流量预测方法、设备及存储介质,获取交通流量数据,将交通流量数据转化为包含时间维度、空间维度和交通流量特征维度的第一交通流量数据矩阵;将时间戳信息、周期信息、时间位置信息和空间位置信息融入到第一交通流量数据矩阵,得到第二交通流量数据矩阵;将第二交通流量数据矩阵输入到K个串行的时空编码模块,得到K个第三交通流量数据矩阵;将K个第三交通流量数据矩阵相加后输入卷积神经网络,得到交通流量预测结果。本发明提供的一种门控时空融合Transformer的交通流量预测方法、设备及存储介质,可以有效的提高交通流量预测的精度。
-
公开(公告)号:CN118570842A
公开(公告)日:2024-08-30
申请号:CN202410892523.5
申请日:2024-07-04
Applicant: 南京信息职业技术学院
IPC: G06V40/10 , G06V10/26 , G06V10/82 , G06N3/0455 , G06N3/082 , G06N3/0499
Abstract: 本发明公开了一种基于改进的Transformer的遮挡行人重识别方法,包括:将输入的带有目标行人的图像经过数据切片且加入类令牌信息,得第一图像表征;将第一图像表征经第一数据映射模块得第二图像表征;将第二图像表征经位置编码模块得第三图像表征;将第三图像表征经改进的边信息编码模块得第四图像表征;将第四图像表征经改进的Transformer模块得第五图像表征;将第五图像表征经深度可分离卷积学习得第六图像表征;将第六图像表征经可学习通道注意力模块得第七图像表征;将第六图像表征经可学习空间注意力模块得第八图像表征;串联七图像表征和第八图像表征且经第二数据映射模块处理得最终行人重识别结果。
-
-
-
-
-
-
-
-
-