-
公开(公告)号:CN117036666B
公开(公告)日:2024-05-07
申请号:CN202310708692.4
申请日:2023-06-14
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供一种基于帧间图像拼接的无人机低空定位方法,方法包括:步骤一、基于捕获的无人机姿态信息对无人机低空拍摄的帧间图像进行正射矫正以转换为正射图像,并统一帧间图像的尺度;步骤二、根据步骤一所得结果,进行帧间图像拼接,包括:2.1提取步骤一所得帧间图像的特征点,对特征点进行筛选以去除错误特征点,并计算得到待拼接图像对应的单应矩阵;2.2利用单应矩阵对相应待拼接图像进行处理,得到新的待拼接图像;2.3对新的待拼接图像进行对偶掩膜处理,得到掩膜矩阵,并基于掩膜矩阵将新的待拼接图像与拼接图像进行拼接;步骤三、利用步骤二所得拼接后的帧间图像进行无人机定位。解决了无人机低空视觉定位信息量少、定位精度差的问题。
-
公开(公告)号:CN117253029A
公开(公告)日:2023-12-19
申请号:CN202311153275.4
申请日:2023-09-07
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供了一种基于深度学习的图像匹配定位方法及计算机设备,该定位方法包括:步骤一、基于捕获的无人机姿态信息对无人机航拍帧间图像进行正射矫正以转换为正射图像,并统一帧间图像的尺度;步骤二、将卫星地图库中的图像和步骤一所得图像共同作为网络输入,通过ResPoint残差点网络提取二者的关键点和描述子;步骤三、根据步骤二所得结果计算相应单应矩阵;步骤四、根据所述单应矩阵计算出航拍图像中心像素坐标对应的位置信息。本发明解决了传统图像匹配算法视觉定位精度低、鲁棒性较差的问题。
-
公开(公告)号:CN118424269B
公开(公告)日:2025-03-14
申请号:CN202410565632.6
申请日:2024-05-09
Applicant: 北京自动化控制设备研究所
IPC: G01C21/16
Abstract: 本发明提供一种基于短期惯性测量的视觉连续定位方法,包括以下步骤:视觉传感器初始化完成时刻t0后,通过视觉跟踪对载体进行定位,获得视觉位姿信息;t1时刻视觉跟踪丢失,使用融合惯性测量的视觉重定位方法进行重定位,若重定位成功,则继续进行视觉跟踪定位;若重定位不成功,重新进行视觉传感器初始化,初始化在t2时刻完成;惯性传感器在t1和t2时间间隔内进行惯性测量,获取载体的惯性姿态变化信息;利用惯性姿态变化信息,将t2时刻初始化构建的世界坐标系对齐至t0时刻初始化构建的世界坐标系,获得视觉连贯鲁棒的定位结果。本发明提出一种加权匹配视觉重定位模型获取了更精准的视觉位姿信息,提高了视觉重定位的成功率和精度。
-
公开(公告)号:CN118196498B
公开(公告)日:2024-11-12
申请号:CN202410318659.5
申请日:2024-03-20
Applicant: 北京自动化控制设备研究所
IPC: G06V10/764 , G06V10/75 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/048 , G06N3/047 , G06N3/09
Abstract: 本发明提供一种基于深度学习的视觉导航品质因子分类方法及计算机设备,该方法包括:采集图像数据和导航数据,并对采集的数据采用图像匹配算法进行预处理,构建视觉导航品质因子分类数据集,作为原始训练数据;构建基于深度学习的品质因子分类网络,包括:品质因子分类网络采用卷积神经网络架构以完成二分类任务,其包括主干网络模块和全连接层模块,其中,主干网络模块用于将输入数据映射到网络的特征空间,学习网络的特征图,全连接层对主干网络的特征图进行解码,通过将主干网络学习到的各类模式和特征进行非线性组合以输出分类的置信度和类别;将原始训练数据集输入到品质因子分类网络中进行视觉导航品质分类训练,使训练后的品质因子分类网络输出视觉导航品质等级和置信度;实时采集图像数据和导航数据,将实时采集的数据采用图像匹配算法处理后输入训练后的品质因子分类网络进行视觉导航品质的自动分类。
-
公开(公告)号:CN118424334A
公开(公告)日:2024-08-02
申请号:CN202410565556.9
申请日:2024-05-09
Applicant: 北京自动化控制设备研究所
IPC: G01C25/00
Abstract: 本发明提供一种解耦合的惯性/视觉导航在线动态标定装置,惯性传感器获取目标的位姿信息,传送给旋转外参数计算单元;视觉传感器获取目标的视觉帧位姿信息,传送给旋转外参数计算单元和平移外参数计算单元,旋转外参数计算单元完成惯性传感器的在线标定,将旋转外参数和校正后的位姿信息发送给平移外参数计算单元,平移外参数计算单元根据旋转外参数、惯性位姿信息、视觉帧位姿信息、相对速度信息获取位置约束方程,对视觉传感器的视觉帧位姿信息进行更新,完成惯性/视觉传感器在线标定。本发明减少了在线标定的运动条件限制,增加了在线标定的应用场景,使在线标定可以使用在无人机等不适宜进行剧烈运动的场景。
-
公开(公告)号:CN118274879B
公开(公告)日:2025-03-14
申请号:CN202410318783.1
申请日:2024-03-20
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供一种无人机机载相机安装误差标定方法及计算机设备,首先通过无人机机载相机、惯导和卫星接收机记录无人机在不同姿态和位置下拍摄的参考图像及其对应的姿态和位置基准数据;其次通过视觉定位方法给出参考图像的视觉定位信息,并建立含安装误差在内的视觉定位信息与基准数据之间的误差方程;最后提出一种基于RANSAC的牛顿下山法准确标定无人机机载相机与惯导之间的安装误差,提高视觉定位精度。
-
公开(公告)号:CN118274879A
公开(公告)日:2024-07-02
申请号:CN202410318783.1
申请日:2024-03-20
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供一种无人机机载相机安装误差标定方法及计算机设备,首先通过无人机机载相机、惯导和卫星接收机记录无人机在不同姿态和位置下拍摄的参考图像及其对应的姿态和位置基准数据;其次通过视觉定位方法给出参考图像的视觉定位信息,并建立含安装误差在内的视觉定位信息与基准数据之间的误差方程;最后提出一种基于RANSAC的牛顿下山法准确标定无人机机载相机与惯导之间的安装误差,提高视觉定位精度。
-
公开(公告)号:CN119984234A
公开(公告)日:2025-05-13
申请号:CN202411976348.4
申请日:2024-12-31
Applicant: 北京自动化控制设备研究所
IPC: G01C21/00 , G01D21/00 , G01D21/02 , G01B11/00 , G01B11/02 , G01B11/06 , G01B21/02 , G01B21/08 , G01C21/16 , G01C21/18 , G01C21/20
Abstract: 本发明涉及飞行器技术领域,公开一种面向飞行器应急场景着陆的轻量化自主导航终端。其中,该终端包括AI处理中心、主惯性测量单元、前视图像采集单元、下视图像采集单元、测距机、右侧视图像采集及测量单元和左侧视图像采集及测量单元,右侧视图像采集及测量单元包括右侧视图像采集模块和右从惯性测量模块,左侧视图像采集及测量单元包括左侧视图像采集模块和左从惯性测量模块。由此,能够有效保障飞行器在应急区域内的安全自主起降。
-
公开(公告)号:CN117036666A
公开(公告)日:2023-11-10
申请号:CN202310708692.4
申请日:2023-06-14
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供一种基于帧间图像拼接的无人机低空定位方法,方法包括:步骤一、基于捕获的无人机姿态信息对无人机低空拍摄的帧间图像进行正射矫正以转换为正射图像,并统一帧间图像的尺度;步骤二、根据步骤一所得结果,进行帧间图像拼接,包括:2.1提取步骤一所得帧间图像的特征点,对特征点进行筛选以去除错误特征点,并计算得到待拼接图像对应的单应矩阵;2.2利用单应矩阵对相应待拼接图像进行处理,得到新的待拼接图像;2.3对新的待拼接图像进行对偶掩膜处理,得到掩膜矩阵,并基于掩膜矩阵将新的待拼接图像与拼接图像进行拼接;步骤三、利用步骤二所得拼接后的帧间图像进行无人机定位。解决了无人机低空视觉定位信息量少、定位精度差的问题。
-
公开(公告)号:CN118424269A
公开(公告)日:2024-08-02
申请号:CN202410565632.6
申请日:2024-05-09
Applicant: 北京自动化控制设备研究所
IPC: G01C21/16
Abstract: 本发明提供一种基于短期惯性测量的视觉连续定位方法,包括以下步骤:视觉传感器初始化完成时刻t0后,通过视觉跟踪对载体进行定位,获得视觉位姿信息;t1时刻视觉跟踪丢失,使用融合惯性测量的视觉重定位方法进行重定位,若重定位成功,则继续进行视觉跟踪定位;若重定位不成功,重新进行视觉传感器初始化,初始化在t2时刻完成;惯性传感器在t1和t2时间间隔内进行惯性测量,获取载体的惯性姿态变化信息;利用惯性姿态变化信息,将t2时刻初始化构建的世界坐标系对齐至t0时刻初始化构建的世界坐标系,获得视觉连贯鲁棒的定位结果。本发明提出一种加权匹配视觉重定位模型获取了更精准的视觉位姿信息,提高了视觉重定位的成功率和精度。
-
-
-
-
-
-
-
-
-