-
公开(公告)号:CN118424334A
公开(公告)日:2024-08-02
申请号:CN202410565556.9
申请日:2024-05-09
Applicant: 北京自动化控制设备研究所
IPC: G01C25/00
Abstract: 本发明提供一种解耦合的惯性/视觉导航在线动态标定装置,惯性传感器获取目标的位姿信息,传送给旋转外参数计算单元;视觉传感器获取目标的视觉帧位姿信息,传送给旋转外参数计算单元和平移外参数计算单元,旋转外参数计算单元完成惯性传感器的在线标定,将旋转外参数和校正后的位姿信息发送给平移外参数计算单元,平移外参数计算单元根据旋转外参数、惯性位姿信息、视觉帧位姿信息、相对速度信息获取位置约束方程,对视觉传感器的视觉帧位姿信息进行更新,完成惯性/视觉传感器在线标定。本发明减少了在线标定的运动条件限制,增加了在线标定的应用场景,使在线标定可以使用在无人机等不适宜进行剧烈运动的场景。
-
公开(公告)号:CN115855042B
公开(公告)日:2024-09-06
申请号:CN202211591779.X
申请日:2022-12-12
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供了一种基于激光雷达协同辅助的行人视觉导航方法,包括载体搭载激光雷达、视觉传感器、IMU对周边场景进行扫描;提取视觉传感器图像中的角点特征作为第一观测信息;提取激光雷达数据中的空间物体结构特征作为第二观测信息;设定系统导航状态;构建视觉传感器误差计算公式进行泰勒展开,确定视觉观测方程雅各比矩阵;构建激光雷达误差计算公式进行泰勒展开,确定激光雷达观测方程雅各比矩阵;求取系统导航状态的最优解;开展多源信息融合滤波,获得载体实时位姿,构建全局地图;将全局地图装配进行人视觉导航系统,开展定位。该方法能够克服单纯依靠视觉定位的缺点,实现大范围、长时间高精度自主导航。
-
公开(公告)号:CN118424269A
公开(公告)日:2024-08-02
申请号:CN202410565632.6
申请日:2024-05-09
Applicant: 北京自动化控制设备研究所
IPC: G01C21/16
Abstract: 本发明提供一种基于短期惯性测量的视觉连续定位方法,包括以下步骤:视觉传感器初始化完成时刻t0后,通过视觉跟踪对载体进行定位,获得视觉位姿信息;t1时刻视觉跟踪丢失,使用融合惯性测量的视觉重定位方法进行重定位,若重定位成功,则继续进行视觉跟踪定位;若重定位不成功,重新进行视觉传感器初始化,初始化在t2时刻完成;惯性传感器在t1和t2时间间隔内进行惯性测量,获取载体的惯性姿态变化信息;利用惯性姿态变化信息,将t2时刻初始化构建的世界坐标系对齐至t0时刻初始化构建的世界坐标系,获得视觉连贯鲁棒的定位结果。本发明提出一种加权匹配视觉重定位模型获取了更精准的视觉位姿信息,提高了视觉重定位的成功率和精度。
-
公开(公告)号:CN117253029B
公开(公告)日:2024-07-09
申请号:CN202311153275.4
申请日:2023-09-07
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供了一种基于深度学习的图像匹配定位方法及计算机设备,该定位方法包括:步骤一、基于捕获的无人机姿态信息对无人机航拍帧间图像进行正射矫正以转换为正射图像,并统一帧间图像的尺度;步骤二、将卫星地图库中的图像和步骤一所得图像共同作为网络输入,通过ResPoint残差点网络提取二者的关键点和描述子;步骤三、根据步骤二所得结果计算相应单应矩阵;步骤四、根据所述单应矩阵计算出航拍图像中心像素坐标对应的位置信息。本发明解决了传统图像匹配算法视觉定位精度低、鲁棒性较差的问题。
-
公开(公告)号:CN118196498A
公开(公告)日:2024-06-14
申请号:CN202410318659.5
申请日:2024-03-20
Applicant: 北京自动化控制设备研究所
IPC: G06V10/764 , G06V10/75 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/048 , G06N3/047 , G06N3/09
Abstract: 本发明提供一种基于深度学习的视觉导航品质因子分类方法及计算机设备,该方法包括:采集图像数据和导航数据,并对采集的数据采用图像匹配算法进行预处理,构建视觉导航品质因子分类数据集,作为原始训练数据;构建基于深度学习的品质因子分类网络,包括:品质因子分类网络采用卷积神经网络架构以完成二分类任务,其包括主干网络模块和全连接层模块,其中,主干网络模块用于将输入数据映射到网络的特征空间,学习网络的特征图,全连接层对主干网络的特征图进行解码,通过将主干网络学习到的各类模式和特征进行非线性组合以输出分类的置信度和类别;将原始训练数据集输入到品质因子分类网络中进行视觉导航品质分类训练,使训练后的品质因子分类网络输出视觉导航品质等级和置信度;实时采集图像数据和导航数据,将实时采集的数据采用图像匹配算法处理后输入训练后的品质因子分类网络进行视觉导航品质的自动分类。
-
公开(公告)号:CN117268395B
公开(公告)日:2024-05-03
申请号:CN202311219390.7
申请日:2023-09-20
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供一种无人机地图匹配位置跳变抑制方法,该方法包括:判断是否存在视觉跳变信息,若存在,则采用改进的视觉导航自适应滤波算法进行视觉导航,其中,采用sigmoid函数对视觉导航自适应滤波算法中的量测噪声矩阵进行拟合并确定比例系数。该方法保证了组合导航系统的稳定性,支撑了无人机卫星拒止条件下的自主导航能力。
-
公开(公告)号:CN117834071A
公开(公告)日:2024-04-05
申请号:CN202311713381.3
申请日:2023-12-13
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提出一种飞行器惯性视觉导航系统时间同步方法,该同步方法步骤如下:步骤一,惯性测量模块以频率f1向核心处理器发送INS数据,以频率f2向数据处理电路发送同步输入信号;步骤二,数据处理电路启动同步计数;步骤三,数据处理电路每收到一次同步输入信号后,则以f3的频率向视觉成像模块发送同步输出信号,视觉成像模块将收到的时间戳信息记录在所成图像信息中;步骤四,核心处理器读取一帧INS数据,并给该帧INS打上时间戳信息;步骤五,核心处理器对带有时间戳的INS数据和图像数据进行对齐,时间戳差值最小的数据为同一时刻INS数据和图像数据。本发明解决了线程阻塞和低空飞行场景下光惯高精度同步的技术问题。
-
公开(公告)号:CN117268395A
公开(公告)日:2023-12-22
申请号:CN202311219390.7
申请日:2023-09-20
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供一种无人机地图匹配位置跳变抑制方法,该方法包括:判断是否存在视觉跳变信息,若存在,则采用改进的视觉导航自适应滤波算法进行视觉导航,其中,采用sigmoid函数对视觉导航自适应滤波算法中的量测噪声矩阵进行拟合并确定比例系数。该方法保证了组合导航系统的稳定性,支撑了无人机卫星拒止条件下的自主导航能力。
-
公开(公告)号:CN117115598A
公开(公告)日:2023-11-24
申请号:CN202311037205.2
申请日:2023-08-17
Applicant: 北京自动化控制设备研究所
IPC: G06V10/776 , G06V20/17 , G06V10/44 , G06V10/56
Abstract: 本发明提供一种视觉线特征提取精度评价方法,评价方法包括:根据当前帧图像中跑道边线两端点的像素坐标和前后两个成像时刻相机的位姿变化,基于对极几何约束以在下一帧图像中确定两条极线,并根据跑道边线两端点到对极线的垂直距离建立跑道边线的评价指标qi;基于提取的当前帧图像中跑道边线邻域内相对灰度梯度统计建立评价指标qg;将评价指标qi和qg的乘积作为可靠度评价因子以实现对跑道边线提取效果的定量评价。本发明能够解决现有评价方法未能在图像层面客观评价边线提取效果的技术问题。
-
公开(公告)号:CN117109568A
公开(公告)日:2023-11-24
申请号:CN202311075535.0
申请日:2023-08-24
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供一种惯性/多维视觉联合定位方法,该联合定位方法包括:提取点特征并完成点特征匹配;提取线特征完成线特征匹配;构造最小化重投影模型,根据所述点特征和线特征的匹配,获取相机位姿;进行惯性预积分计算,构造视觉点线‑惯性联合优化模型;完成视觉点线‑惯性联合优化模型的雅克比矩阵计算和状态更新,更新相机位姿、三维地图点坐标。采用该技术方案能在视觉丢失场景维持导航定位,进一步提升了城市场景下自主导航的鲁棒性。
-
-
-
-
-
-
-
-
-