-
公开(公告)号:CN117788540A
公开(公告)日:2024-03-29
申请号:CN202311483391.2
申请日:2023-11-09
Applicant: 武汉大学
IPC: G06T7/38 , G06T7/33 , G06V10/75 , G06N3/0455 , G06N3/082
Abstract: 本发明提供基于联合匹配框架的视频配准系统及方法,能够高效实现多尺度多视角多时相视频配准和实时视频与地理场景精确配准,切实保证匹配精度,提高鲁棒性、抗旋转、抗尺度能力和处理效率。视频配准系统包括:预处理部;匹配模型构建部,构建深度学习匹配模型,将遥感底图和首张视频序列帧作为模型输入;包括:特征提取模块、编码模块、粗匹配模块和精匹配模块;抗尺度抗旋转模块构建部,为深度学习匹配模型提供抗尺度抗旋转处理,得到正确匹配点集;包括抗尺度、抗旋转模块;变换关系获取部,根据正确匹配点集,计算首张视频序列帧与遥感底图的变换关系,并利用匹配模型计算序列影像间变换关系,进而计算出视频每帧影像与遥感底图的变换关系。
-
公开(公告)号:CN117193364A
公开(公告)日:2023-12-08
申请号:CN202311253721.9
申请日:2023-09-26
Applicant: 武汉大学
IPC: G05D1/10
Abstract: 本发明公开了一种面向三维重建的多无人机路径规划方法及系统,包括以下步骤:基于网格式轨迹捕捉垂直影像并重建粗略三维模型作为先验信息;在粗模表面均匀采样,并在粗模所处场景均匀生成多个候选视点,再基于多视图几何三维重建原理建立表面点的重建度预测模型;基于对全场景的重建度损失估计结果为多无人机确定重点任务位置,并采用布谷鸟算法分配最优任务序列;多无人机轮流按照各自的任务序列,依次基于一种改进的A*算法将轨迹延伸至下一个任务所处位置;多无人机沿轨迹飞行并捕捉场景影像,最后重建出精细三维模型。本发明实现了多无人机以协同的方式自主捕捉场景影像,并重建高质量三维模型。
-
公开(公告)号:CN116662468A
公开(公告)日:2023-08-29
申请号:CN202310608898.X
申请日:2023-05-24
Applicant: 武汉大学
IPC: G06F16/29 , G06F18/241 , G06F18/213
Abstract: 本发明公开了一种基于地理对象空间模式特征的城市功能区识别方法及系统,首先,对开源大数据进行数据规范化处理,利用一系列自然及人工建造的分隔性要素划分城市空间区域作为研究单元,即街区;其次,基于街区内部城市地表要素、兴趣点数据(POI)和中分辨率遥感影像挖掘多模数据中的空间分布和语义属性获取每个街区的社会经济特征向量与空间模式特征向量;最后,基于已获得的空间模式特征向量与社会经济特征向量,设计卷积神经网络进行城市功能区空间语义自动识别与分类。本发明基于开源大数据,智能挖掘城市地表要素、兴趣点数据(POI)等多种地理对象的多维特征,实现了高精度、细粒度的城市功能区空间语义自动识别与分类。
-
公开(公告)号:CN116563102A
公开(公告)日:2023-08-08
申请号:CN202310396472.2
申请日:2023-04-11
Applicant: 武汉大学
IPC: G06T3/40 , G06T7/10 , G06T7/62 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种空间形态信息引导的高分遥感影像建筑物规则化提取方法,首先利用Mask‑RCNN基础骨架网络模型获取建筑物实例对象的深度图像语义特征图和初始轮廓预测,同时保留预测对象与真值对象间的对应关系与轮廓边界点信息;其次,联合CNN的深度语义特征与建筑物形态、结构认知参量特征利用GCNN对建筑物对象进行提取与边界规则化,其中GCNN包含两个分支:基于对象全局信息的分割分支和基于对象局部信息的边缘规则化分支;最后,通过金字塔池模块聚集来自CNN解码器的图像语义特征和来自GCNN双分支的空间分布结构特征和边缘空间形态特征,引入正则化优化函数补充交叉熵函数对建筑物对象几何描述的一致性,提供高精度的城市建筑物规则化矢量提取结果。
-
公开(公告)号:CN115439926A
公开(公告)日:2022-12-06
申请号:CN202210936032.7
申请日:2022-08-05
Applicant: 武汉大学
IPC: G06V40/20 , G06V20/52 , G06V20/40 , G06V10/80 , G06V10/42 , G06V10/44 , G06V10/56 , G06V10/54 , G06V10/764 , G06V10/82
Abstract: 本发明公开了一种基于关键区域和场景深度的小样本异常行为识别方法。首先对视频进行随机稀疏化采样,并对采样出的视频帧进行全局特征提取,接着将全局特征图输入到基于加权偏移的关键区域选取模块,得到包含异常行为主体的关键区域并进行局部特征提取,然后将全局特征与局部特征融合得到视频级RGB特征,再将视频帧提取出相应的场景深度图,并对场景深度图重复上述特征提取步骤得到视频级场景深度特征,最后将视频级RGB特征与场景深度特征融合得到最终的视频级特征,并将视频级的特征输入小样本分类器得到异常行为识别结果。本发明针对监控场景的异常行为识别,提高了准确性、计算效率和鲁棒性,并且适用于多运动目标及复杂背景的监控视频的情况。
-
公开(公告)号:CN111881915B
公开(公告)日:2022-07-15
申请号:CN202010680785.7
申请日:2020-07-15
Applicant: 武汉大学
IPC: G06V10/46 , G06V10/30 , G06V10/762 , G06V10/771 , G06K9/62 , G06T7/11 , G06T7/20 , G06T7/90
Abstract: 本发明公开了一种基于多种先验信息约束的卫星视频目标智能检测方法,包括:步骤1,获取卫星视频中图像,基于线性迭代算法对整张图像生成超像素;步骤2,基于人眼显著性模型计算各个超像素的边界连接性;步骤3,利用背景建模的方法生成图像的运动热图;步骤4,构建由背景、前景、运动热图三个先验信息约束的代价函数方程,并对该代价函数方程进行优化计算,通过最小二乘法计算出最终的显著性目标图。本发明利用多先验信息约束,大大提高了对卫星视频中光照变化以及卫星凝视角度细微差异的鲁棒性,并且以超像素为单位的计算,在有效抵抗像素级别干扰的同时也大大提升了计算速度。
-
公开(公告)号:CN111126427B
公开(公告)日:2022-04-01
申请号:CN201911022565.9
申请日:2019-10-25
Applicant: 武汉大学
IPC: G06K9/62 , G06V10/778 , G06V10/84 , G06V10/764
Abstract: 本发明公开了一种基于遥感影像的OpenStreetMap路网数据质量评价的方法,该方法首先对OSM路网数据进行了简化,得到初始道路骨架,然后将路网与影像进行配准;利用道路的边缘特征、光谱特征以及植被特征构建贝叶斯网络模型进行验证,将OSM路网数据中可靠的路段作为基础路网骨架;其次通过U‑Net模型在遥感影像中提取道路,用以弥补OSM路网中未覆盖的新增道路骨架,从遥感影像中提取的道路也会经贝叶斯网络模型验证,与已有的基础路网股价融合得到完整的路网骨架。最后,将影像网格化划分子研究区,通过计算三项路网评价因子:位置精度、长度完整性以及网格内部的最小外接多边形,得到评价区域内的OSM路网数据质量的评价参考图。
-
公开(公告)号:CN114005085A
公开(公告)日:2022-02-01
申请号:CN202111259984.1
申请日:2021-10-28
Applicant: 武汉大学
IPC: G06V20/52 , G06V10/25 , G06V10/44 , G06V10/774 , G06V10/80 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明提出了一种视频中密集人群分布检测与计数方法。首先获取大量含不同密度人群的视频构建数据集;然后构建多尺度特征融合和注意力机制的深度神经网络,将训练集输入至网络,输出对应的人群密度图和注意力图的预测结果,结合真实密度图和注意力图构建损失函数模型进行训练,生成优化后的网络;通过优化后的多尺度特征融合和注意力机制的深度神经网络预测得到人群视频图像的密度图,进一步用基于网格的分层次密度空间聚类方法对估计密度图进行点聚类来识别组群,快速得到组群的人数和位置信息。本发明能解决摄像机透视失真、尺度变化和背景噪声影响的问题,提高了计数精度和稳定性;同时,对人群进行组群划分,可以直观显示出人群的分布情况。
-
公开(公告)号:CN109448023B
公开(公告)日:2021-05-18
申请号:CN201811235772.8
申请日:2018-10-23
Applicant: 武汉大学
Abstract: 本发明公开了一种结合空间置信图和轨迹估计的卫星视频小目标实时跟踪方法,包括跟踪滤波器的初始化和Kalman滤波器的参数初始化,利用跟踪的目标位置,回归Kalman滤波器,预测目标新的位置;对下一帧图像提取特征进行傅里叶变换,利用构建的跟踪滤波器,通过图像卷积,求取结果的最大响应值,作为目标新的位置,以新的位置为中心提取特征更新跟踪滤波器;执行循环传入下一帧图像,判断是否满足设定的预测条件,进行相应处理提取新的位置。本方法在充分考虑了卫星视频中目标相对背景所占像素少、无明显形状特征、颜色与背景相似度高等特点,既保证了跟踪结果的有效性又具备实时的跟踪速度。
-
公开(公告)号:CN111950423A
公开(公告)日:2020-11-17
申请号:CN202010782530.1
申请日:2020-08-06
Applicant: 中国电子科技集团公司第五十二研究所 , 武汉大学
Abstract: 本发明公开了一种基于深度学习的实时多尺度密集目标检测方法,包括:构建HikNet-LMS目标检测网络;利用训练数据集对HikNet-LMS目标检测网络训练至收敛;利用训练后的HikNet-LMS目标检测网络对输入的视频图像进行多尺度密集目标检测,输出目标检测结果进行实时展示。本发明的基于深度学习的实时多尺度密集目标检测方法,多尺度目标检测的能力强,检测精度高,计算耗时短,实时性强。
-
-
-
-
-
-
-
-
-