-
公开(公告)号:CN115964634B
公开(公告)日:2024-04-02
申请号:CN202211583438.8
申请日:2022-12-10
Applicant: 北京自动化控制设备研究所
IPC: G06F18/214 , G06F18/24 , G06F18/22 , G06F18/10
Abstract: 本发明提供了一种数据标注优化方法,该数据标注优化方法包括:根据特征质量从待标注数据集中筛选数据,标记为标准数据;对待标注数据集进行特征向量化处理,将特征向量化处理后的待标注数据与标准数据进行比较,以对待标注数据进行分类;以标准数据为参考数据,分别对分类后的各数据集进行相似度检测,根据设定的相似度阈值对各数据集进行数据裁减;对裁减后的数据集进行标注。应用本发明的技术方案,避免了通过人工方式进行标注时无法判断数据质量,而导致标注的数据中存在部分数据质量较低的技术问题。
-
公开(公告)号:CN117253029A
公开(公告)日:2023-12-19
申请号:CN202311153275.4
申请日:2023-09-07
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供了一种基于深度学习的图像匹配定位方法及计算机设备,该定位方法包括:步骤一、基于捕获的无人机姿态信息对无人机航拍帧间图像进行正射矫正以转换为正射图像,并统一帧间图像的尺度;步骤二、将卫星地图库中的图像和步骤一所得图像共同作为网络输入,通过ResPoint残差点网络提取二者的关键点和描述子;步骤三、根据步骤二所得结果计算相应单应矩阵;步骤四、根据所述单应矩阵计算出航拍图像中心像素坐标对应的位置信息。本发明解决了传统图像匹配算法视觉定位精度低、鲁棒性较差的问题。
-
公开(公告)号:CN117170501A
公开(公告)日:2023-12-05
申请号:CN202311075630.0
申请日:2023-08-24
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供一种基于点线融合特征的视觉跟踪方法,该视觉跟踪方法包括:提取点特征并完成点特征匹配;提取线特征;基于所提取的线特征,采用改进的线特征匹配方法,基于几何约束辅助描述子匹配完成特征匹配,并剔除误匹配,包括:初步建立线匹配集合;采用双向最近邻结合比例测试的方式,选取出最优匹配线段;基于筛选出的最优匹配线段,通过衡量其他线匹配对此线特征对应地图线的支持,进一步剔除误匹配;构造最小化重投影模型,根据所述点特征和线特征的匹配,获取相机位姿。该技术方案可以进一步提高城市场景的导航定位精度,为实现导航智能化提供必要的技术基础。
-
公开(公告)号:CN115690205B
公开(公告)日:2023-12-05
申请号:CN202211227763.0
申请日:2022-10-09
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供了一种基于点线综合特征的视觉相对位姿测量误差估计方法,该基于点线综合特征的视觉相对位姿测量误差估计方法包括:S1、建立视觉相对位姿测量模型,包括建立基于点特征的视觉相对位姿测量模型和基于线特征的视觉相对位姿测量模型;S2、对视觉相对位姿测量模型进行误差影响参数分析,包括相机内参数的影响分析和特征提取像素误差的影响分析;S3、对视觉相对位姿测量模型进行误差仿真分析以完成视觉相对位姿测量误差估计。应用本发明的技术方案,能够解决无人机自主起降过程中视(56)对比文件贾宁“.基于点线特征的无人机自主着舰方法研究”《.中国优秀硕士学位论文全文数据库》.2019,(第1期),第C031-416页.吴雷等.“无人机位姿测量的点特征视觉方法”《.飞控与探测》.2019,第2卷(第1期),第37-42页.Wolkow S等.“Accuracy and availabilityof an optical positioning system foraircraft landing”《.Proceedings of the IONInternational Technical Meeting》.2019,第884-895页.Fan R Z等.“Estimating 6D aircraftpose from keypoints and structures”.《Remote Sensing》.2021,第13卷(第4期),第663-667页.
-
公开(公告)号:CN113790719B
公开(公告)日:2023-09-12
申请号:CN202110928170.6
申请日:2021-08-13
Applicant: 北京自动化控制设备研究所
IPC: G01C21/16
Abstract: 本发明公开一种基于线特征的无人机惯性/视觉着陆导航方法,首先对机场跑道进行图像采集,对跑道边线进行实时特征提取,获取边线及中线的直线方程;通过提前装订的机场跑道宽度与相机内参矩阵,计算边线方程的Plücker坐标;由两条等距平行线计算无穷远处消隐点及消隐线的方程,通过联立方程组解算无人机实时的世界坐标系与相机坐标系之间的姿态转移矩阵,并进行姿态与侧向、垂向位置的求解;将视觉着陆系统解算出的位置信息作为观测量,与惯性导航输出的导航信息构建卡尔曼滤波器进行融合,实现连续自主的导航定位功能。本发明解决了惯性导航误差随时间累积发散与视觉导航解算结果噪声较大的问题。
-
公开(公告)号:CN115776366A
公开(公告)日:2023-03-10
申请号:CN202211591771.3
申请日:2022-12-12
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供了一种视觉多传感器高精度同步方法和装置,包括IMU输出包含时间戳的IMU数据,同步发送触发信号;同步处理电路依据触发信号生成各视觉传感器所需的同步信号,基于IMU高频时间戳标记各同步信号;各视觉传感器响应相应的同步信号进行工作,采集数据;导航计算机接收各视觉传感器的数据、IMU数据,依据IMU数据包含的时间戳和各同步信号的时间戳,为各视觉传感器数据标注时间戳。本发明通过同步处理电路设置各视觉传感器的同步信号,利用时间戳进行时间同步,通过提高传感器之间的时间同步性,能够显著提升惯性/环境感知组合导航系统的导航性能。
-
公开(公告)号:CN115717901A
公开(公告)日:2023-02-28
申请号:CN202211419039.8
申请日:2022-11-14
Applicant: 北京自动化控制设备研究所
IPC: G01C25/00
Abstract: 本发明提供一种基于滤波的惯性/视觉里程计安装误差估计方法,该方法包括:分别计算世界坐标系下视觉里程计解算的三个轴向位置与导航坐标系下惯导解算的三个轴向位置信息;将世界坐标系下视觉里程计解算的位置转换到导航坐标系下,获取视觉里程计在导航坐标系下的位置信息;根据导航坐标系下惯导解算的位置信息与视觉里程计在导航坐标系下的位置信息的差值构造观测量;并计算量测矩阵;确定误差模型;利用卡尔曼滤波方法,基于所述误差模型、观测量以及量测矩阵对系统误差进行估计,并根据滤波得到的误差估计结果对惯导系统误差进行修正。与现有技术相比大幅度提高了估计结果的精度,且安装误差估计方法具有便利性与普适性。
-
公开(公告)号:CN113790719A
公开(公告)日:2021-12-14
申请号:CN202110928170.6
申请日:2021-08-13
Applicant: 北京自动化控制设备研究所
IPC: G01C21/16
Abstract: 本发明公开一种基于线特征的无人机惯性/视觉着陆导航方法,首先对机场跑道进行图像采集,对跑道边线进行实时特征提取,获取边线及中线的直线方程;通过提前装订的机场跑道宽度与相机内参矩阵,计算边线方程的Plücker坐标;由两条等距平行线计算无穷远处消隐点及消隐线的方程,通过联立方程组解算无人机实时的世界坐标系与相机坐标系之间的姿态转移矩阵,并进行姿态与侧向、垂向位置的求解;将视觉着陆系统解算出的位置信息作为观测量,与惯性导航输出的导航信息构建卡尔曼滤波器进行融合,实现连续自主的导航定位功能。本发明解决了惯性导航误差随时间累积发散与视觉导航解算结果噪声较大的问题。
-
公开(公告)号:CN115855042B
公开(公告)日:2024-09-06
申请号:CN202211591779.X
申请日:2022-12-12
Applicant: 北京自动化控制设备研究所
Abstract: 本发明提供了一种基于激光雷达协同辅助的行人视觉导航方法,包括载体搭载激光雷达、视觉传感器、IMU对周边场景进行扫描;提取视觉传感器图像中的角点特征作为第一观测信息;提取激光雷达数据中的空间物体结构特征作为第二观测信息;设定系统导航状态;构建视觉传感器误差计算公式进行泰勒展开,确定视觉观测方程雅各比矩阵;构建激光雷达误差计算公式进行泰勒展开,确定激光雷达观测方程雅各比矩阵;求取系统导航状态的最优解;开展多源信息融合滤波,获得载体实时位姿,构建全局地图;将全局地图装配进行人视觉导航系统,开展定位。该方法能够克服单纯依靠视觉定位的缺点,实现大范围、长时间高精度自主导航。
-
公开(公告)号:CN118424269A
公开(公告)日:2024-08-02
申请号:CN202410565632.6
申请日:2024-05-09
Applicant: 北京自动化控制设备研究所
IPC: G01C21/16
Abstract: 本发明提供一种基于短期惯性测量的视觉连续定位方法,包括以下步骤:视觉传感器初始化完成时刻t0后,通过视觉跟踪对载体进行定位,获得视觉位姿信息;t1时刻视觉跟踪丢失,使用融合惯性测量的视觉重定位方法进行重定位,若重定位成功,则继续进行视觉跟踪定位;若重定位不成功,重新进行视觉传感器初始化,初始化在t2时刻完成;惯性传感器在t1和t2时间间隔内进行惯性测量,获取载体的惯性姿态变化信息;利用惯性姿态变化信息,将t2时刻初始化构建的世界坐标系对齐至t0时刻初始化构建的世界坐标系,获得视觉连贯鲁棒的定位结果。本发明提出一种加权匹配视觉重定位模型获取了更精准的视觉位姿信息,提高了视觉重定位的成功率和精度。
-
-
-
-
-
-
-
-
-