-
公开(公告)号:CN109459040B
公开(公告)日:2021-06-18
申请号:CN201910033350.0
申请日:2019-01-14
Applicant: 哈尔滨工程大学
IPC: G01C21/20
Abstract: 本发明属于定位技术领域,具体涉及一种基于RBF神经网络辅助容积卡尔曼滤波的多AUV协同定位方法。本发明包括以下步骤:建立多AUV协同定位状态空间模型;创建一个RBF神经网络;在基准参考位置可用时,通过CKF进行多AUV协同定位估计;收集RBF神经网络的训练数据;对RBF神经网络进行训练;基准信号中断,停止训练RBF神经网络,继续进行CKF协同定位估计;估计CKF协同定位滤波误差;补偿滤波状态更新估计值。本发明在多AUV协同定位情况下,考虑跟随AUV航向漂移误差、洋流速度影响及与距离相关的水声噪声,具有更高的实用价值;利用RBF神经网络对CKF滤波估计值进行补偿,协同定位精度和稳定性显著提高;本发明算法易于实现。
-
公开(公告)号:CN116680500B
公开(公告)日:2024-03-22
申请号:CN202310690292.5
申请日:2023-06-12
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了水下航行器在非高斯噪声干扰下的位置估计方法及系统,所述方法包括以下步骤:根据获取的水下航行器的位置数据、速度数据与航向数据,构建协同定位系统状态空间模型;在得到基于线性化误差补偿的优化量测方程的基础上,构建增广状态模型;利用增广状态模型,基于student'st核函数和最小误差熵准则,构建代价函数;基于代价函数,求得后验状态估计的加权最小二乘表达形式;基于后验状态估计的加权最小二乘表达形式,使用矩阵求逆引理得到后验状态估计及相应的估计误差协方差矩阵的最终表达形式,完成水下航行器的位置估计。本发明能够有效削弱非高斯噪声对位置估计的影响,提高水下航行器在非理想作业环境中的定位精度。
-
公开(公告)号:CN117369461A
公开(公告)日:2024-01-09
申请号:CN202311427111.6
申请日:2023-10-31
Applicant: 哈尔滨工程大学
IPC: G05D1/43 , G05D109/30
Abstract: 本发明公开一种双主交替领航下基于滑模控制的编队轨迹跟踪方法和装置,包括:步骤S1、根据虚拟领航跟随模式,得到分布式模型预测控制器;步骤S2、根据分布式模型预测控制器,得到分布式状态观测器;步骤S3、对分布式状态观测器进行误差模型分析,确定控制参数;步骤S4、基于控制参数设计滑膜控制器,实现编队轨迹跟踪。采用本发明的技术方案,可以提升编队的整体性能。
-
公开(公告)号:CN116858286A
公开(公告)日:2023-10-10
申请号:CN202310821020.4
申请日:2023-07-06
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了一种基于特殊欧式群和地球坐标系的线性传递对准方法,包括:将主惯性导航系统的导航信息传递给子惯性导航系统作为初始导航信息,其中所述初始导航信息包括初始姿态、初始速度和初始位置;子惯性导航系统通过初始导航信息进行导航解算,并引入李群理论,构建误差向量,获取传递对准误差和传递对准误差状态模型;基于主惯性导航系统的导航信息构建误差观测模型,采用卡尔曼滤波器对所述传递对准误差进行误差估计,并根据误差定义对所述子惯性导航系统进行反馈校正,获得所述子惯性导航系统准确的姿态和速度,完成传递对准。本发明具有计算量小、无数学奇异点、具备全球导航能力等优点。
-
公开(公告)号:CN109656136B
公开(公告)日:2022-03-18
申请号:CN201811534141.6
申请日:2018-12-14
Applicant: 哈尔滨工程大学
IPC: G05B13/04
Abstract: 本发明属于声学测量领域,具体涉及一种基于声学测量网络的水下多AUV协同定位编队拓扑结构优化方法。本发明在多随从AUV情况下,考虑了声学测距误差与距离的相关性,具有更高的实用价值;针对位置信息的不确定性,根据相应的概率密度采用蒙特卡洛方法对可能分布区域内的编队构型进行优化设计;采用基于退火思想的步进递推的策略,不管主艇初始位置在何处,均可经过迭代步骤找到其最优位置布局;本发明引入Metropolis准则作为判断是否接受新解作为当前解的准则之一,可有效改善当局部最优解出现时迭代不再继续进行的情况;本发明的迭代过程产生新解邻域的大小与温度高低直接相关,增加最终结果的精确性。
-
公开(公告)号:CN111444948A
公开(公告)日:2020-07-24
申请号:CN202010204462.0
申请日:2020-03-21
Applicant: 哈尔滨工程大学
Abstract: 本发明公开了一种图像特征提取与匹配方法,包括步骤一:对特征点进行初步筛选;步骤二:利用候选角点中X和Y方向的梯度对S1得到的候选角点进行二次筛选;步骤三:像素级角点检测;步骤四:亚像素级角点检测,通过迭代优化Harris位置获得S3中得到的像素级角点的亚像素级角点坐标;步骤五:旋转不变快速变化描述子计算;步骤六:进行特征提取与特征匹配。发明在Harris角点检测的基础上,经过两次候选角点的筛选以提高角点的检测速度,并且通过迭代优化提高了角点检测的位置精度,最后,利用旋转不变快速变换描述子来表示特征。
-
公开(公告)号:CN109974706A
公开(公告)日:2019-07-05
申请号:CN201910177062.2
申请日:2019-03-08
Applicant: 哈尔滨工程大学
IPC: G01C21/20
Abstract: 本发明属于水下航行器导航研究领域,具体涉及一种基于双运动模型的主从式多AUV协同导航方法,包括以下步骤:领航AUV与跟随AUV进行水声测距,同时领航AUV将自身位置和速度信息广播发送给跟随AUV;建立跟随AUV与领航AUV间的相对运动状态空间模型;通过CKF估计跟随AUV与领航AUV的速度分量差值;建立双领航模式的多AUV协同导航状态空间模型;本发明提出将AUV相对运动状态空间模型与双领航模式的多AUV协同导航状态空间模型相结合,保障了多AUV协同导航系统的协同定位性能;本发明跟随AUV不需装备惯性导航设备和DVL,从而降低AUV系统配置的复杂性且节约了跟随AUV的内部空间、减轻重量。
-
公开(公告)号:CN109459040A
公开(公告)日:2019-03-12
申请号:CN201910033350.0
申请日:2019-01-14
Applicant: 哈尔滨工程大学
IPC: G01C21/20
Abstract: 本发明属于定位技术领域,具体涉及一种基于RBF神经网络辅助容积卡尔曼滤波的多AUV协同定位方法。本发明包括以下步骤:建立多AUV协同定位状态空间模型;创建一个RBF神经网络;在基准参考位置可用时,通过CKF进行多AUV协同定位估计;收集RBF神经网络的训练数据;对RBF神经网络进行训练;基准信号中断,停止训练RBF神经网络,继续进行CKF协同定位估计;估计CKF协同定位滤波误差;补偿滤波状态更新估计值。本发明在多AUV协同定位情况下,考虑跟随AUV航向漂移误差、洋流速度影响及与距离相关的水声噪声,具有更高的实用价值;利用RBF神经网络对CKF滤波估计值进行补偿,协同定位精度和稳定性显著提高;本发明算法易于实现。
-
公开(公告)号:CN115855038B
公开(公告)日:2024-01-09
申请号:CN202211465410.4
申请日:2022-11-22
Applicant: 哈尔滨工程大学 , 哈尔滨哈船智聚创新科技发展有限公司
Abstract: 本发明公开一种短时高精度姿态保持方法,包括:获取陀螺仪输出和加速度计输出;基于加速度计输出和当地重力加速度,得到自身初始姿态信息;基于自身初始姿态信息和陀螺仪输出,得到航向角,作为航向输出;基于加速度计输出和当地重力加速度,得到俯仰角和横揺角,并进行低通滤波处理,将低通滤波处理后的俯仰角和横揺角作为水平姿态输出,实现姿态测量。本发明能够在不依赖任何外界信息的条件下快速完成初始姿态的确定,后续姿态测量也无需接受任何外界信息,抗干扰能力强。经过剧烈角运动后仍能实现高精度的姿态测量,提高姿态计算的精度,实现较低成本条件下的高精度姿态测量。(56)对比文件申强等《.多传感器信息融合导航技术》.北京理工大学出版社,2020,34-35.Bo Xu等.Error Modeling and SimulationAnalysis for the Vehicle Launching SystemErecting《.Advanced Materials Research》.2012,全文.高薪;卞鸿巍;傅中泽;张礼伟.捷联惯导晃动基座四元数估计对准算法.中国惯性技术学报.2014,(第06期),全文.孙立江;周召发;陈河;刘朋朋;郭琦.激光捷联惯导多矢量定姿法晃动基座粗对准.压电与声光.2016,(第02期),全文.
-
公开(公告)号:CN116858287A
公开(公告)日:2023-10-10
申请号:CN202310821429.6
申请日:2023-07-06
Applicant: 哈尔滨工程大学
Abstract: 本发明提出一种基于地球坐标系的极区惯导初始对准方法,包括:采集惯导中加速度计和陀螺仪的输出;对所述惯导进行粗对准,获取所述惯导在任意时刻的姿态变换矩阵;基于所述姿态变换矩阵,利用所述输出,对所述惯导进行精对准,获取对准后的所述惯导的姿态、速度和位置。本发明计算量简单,抗干扰能力强、可靠性高,能在全球任意地点使用。
-
-
-
-
-
-
-
-
-