一种飞行器惯性视觉导航系统时间同步方法

    公开(公告)号:CN117834071B

    公开(公告)日:2024-08-06

    申请号:CN202311713381.3

    申请日:2023-12-13

    Abstract: 本发明提出一种飞行器惯性视觉导航系统时间同步方法,该同步方法步骤如下:步骤一,惯性测量模块以频率f1向核心处理器发送INS数据,以频率f2向数据处理电路发送同步输入信号;步骤二,数据处理电路启动同步计数;步骤三,数据处理电路每收到一次同步输入信号后,则以f3的频率向视觉成像模块发送同步输出信号,视觉成像模块将收到的时间戳信息记录在所成图像信息中;步骤四,核心处理器读取一帧INS数据,并给该帧INS打上时间戳信息;步骤五,核心处理器对带有时间戳的INS数据和图像数据进行对齐,时间戳差值最小的数据为同一时刻INS数据和图像数据。本发明解决了线程阻塞和低空飞行场景下光惯高精度同步的技术问题。

    面向无人机的惯性、视觉和高度信息融合导航方法

    公开(公告)号:CN114485649A

    公开(公告)日:2022-05-13

    申请号:CN202210122642.3

    申请日:2022-02-09

    Abstract: 本发明提供了一种面向无人机的惯性、视觉和高度信息融合导航方法,该面向无人机的惯性、视觉和高度信息融合导航方法包括:根据无人机实时高度信息获取尺度估计值;根据尺度估计值更新视觉测量信息;视觉传感器采集视觉图像,根据视觉图像进行特征提取和匹配获取惯性传感器的速度初始值;构建惯性残差;根据惯性残差采用两次惯性传感器初始化方法获取IMU惯性参数;根据IMU惯性参数和视觉图像进行惯性视觉联合优化完成位姿估计,进行无人机定位以完成无人机的惯性、视觉和高度信息融合导航。应用本发明的技术方案,能够解决现有技术中导航方法位姿估计精度低、空中飞行时惯性传感器容易发散造成跟踪丢失、计算量复杂等技术问题。

    一种适用于高速高旋刚体的高精度姿态实时解算方法

    公开(公告)号:CN117824645A

    公开(公告)日:2024-04-05

    申请号:CN202311750402.9

    申请日:2023-12-19

    Abstract: 本发明公开一种适用于高速高旋刚体的高精度姿态实时解算方法,针对微机电惯性器件刻度系数、零偏稳定性等关键参数进行误差建模与分析,对器件的误差特性和建模技术进行深入研究,掌握微机电惯性器件误差在大动态条件下的误差传播规律,从而抑制对系统姿态测量精度的影响,针对弹尾传感器偏置安装的问题,以加性四元数误差进行高旋多刚体姿态误差的表征,建立姿态误差演化机制;设计高旋多刚体姿态误差估计与补偿算法,提出动态补偿策略来抑制误差传递,突破姿态误差的分析、动态建模和动态补偿难题。

    面向无人机的惯性、视觉和高度信息融合导航方法

    公开(公告)号:CN114485649B

    公开(公告)日:2023-09-12

    申请号:CN202210122642.3

    申请日:2022-02-09

    Abstract: 本发明提供了一种面向无人机的惯性、视觉和高度信息融合导航方法,该面向无人机的惯性、视觉和高度信息融合导航方法包括:根据无人机实时高度信息获取尺度估计值;根据尺度估计值更新视觉测量信息;视觉传感器采集视觉图像,根据视觉图像进行特征提取和匹配获取惯性传感器的速度初始值;构建惯性残差;根据惯性残差采用两次惯性传感器初始化方法获取IMU惯性参数;根据IMU惯性参数和视觉图像进行惯性视觉联合优化完成位姿估计,进行无人机定位以完成无人机的惯性、视觉和高度信息融合导航。应用本发明的技术方案,能够解决现有技术中导航方法位姿估计精度低、空中飞行时惯性传感器容易发散造成跟踪丢失、计算量复杂等技术问题。

    一种旋翼无人机惯性视觉着陆导航方法

    公开(公告)号:CN118031928A

    公开(公告)日:2024-05-14

    申请号:CN202311648728.0

    申请日:2023-12-04

    Abstract: 本发明提供一种旋翼无人机惯性视觉着陆导航方法,该导航方法的具体步骤如下:第一步,合作目标坐标系误差建模:将惯性导航系统解算地理坐标系上的位移量转换至合作目标坐标系中,采用Cna姿态转移矩阵进行转换,然后,在合作目标坐标系下进行误差建模;第二步,对惯性导航与视觉导航信息进行融合:通过卡尔曼滤波算法对惯性导航与视觉导航信息进行融合;第三步,系统量测噪声阵拟合方法:计算旋翼无人机与合作目标间的相对距离,对量测噪声矩阵Rk进行拟合;第四步,位置误差修正:即对惯性导航各项误差进行修正;本发明实现了不需要提前获取合作目标位置信息,解决了视觉导航精度随无人机相对合作目标距离变化的技术问题,提高了无人机视觉导航精度。

    基于点线融合特征的视觉跟踪方法

    公开(公告)号:CN117170501B

    公开(公告)日:2024-05-03

    申请号:CN202311075630.0

    申请日:2023-08-24

    Abstract: 本发明提供一种基于点线融合特征的视觉跟踪方法,该视觉跟踪方法包括:提取点特征并完成点特征匹配;提取线特征;基于所提取的线特征,采用改进的线特征匹配方法,基于几何约束辅助描述子匹配完成特征匹配,并剔除误匹配,包括:初步建立线匹配集合;采用双向最近邻结合比例测试的方式,选取出最优匹配线段;基于筛选出的最优匹配线段,通过衡量其他线匹配对此线特征对应地图线的支持,进一步剔除误匹配;构造最小化重投影模型,根据所述点特征和线特征的匹配,获取相机位姿。该技术方案可以进一步提高城市场景的导航定位精度,为实现导航智能化提供必要的技术基础。

Patent Agency Ranking