-
公开(公告)号:CN107918399B
公开(公告)日:2018-12-07
申请号:CN201711079828.0
申请日:2017-11-06
Applicant: 哈尔滨工程大学
IPC: G05D1/10
Abstract: 本发明提供一种适用于水下机器人的快速融合避障方法,通过测距声呐的测距标准差与方差确定AUV的定位误差区域,根据定位误差区域获得声呐安装方向上的AUV的静态安全距离。根据不同方向上的实时速度分量与静态安全距离得到相应方向上的安全警戒距离阈值。将测距声呐测得的障碍物距离数据与该方向上的安全警戒距离进行判断,当障碍物距离大于安全警戒距离时,该方向上的声呐将以基础工作间隔进行轮询工作。当障碍物距离小于或等于安全警戒距离时,该方向上的声呐将按照动态声呐工作间隔方程的输出进行轮询工作。本发明提出的可使AUV在狭窄航道内快速准确的获得障碍物距离信息,对多传感器数据进行融合,实现快速融合避障,为AUV的安全作业提供保障。
-
公开(公告)号:CN105643626B
公开(公告)日:2017-06-20
申请号:CN201610130717.7
申请日:2016-03-08
Applicant: 哈尔滨工程大学
IPC: B25J9/16
Abstract: 本发明公开了一种基于双重判据的水下机器人推力优化分配方法,针对水下机器人的推进器布置情况建立推力分配模型,对矢量推进器在每个自由度方向推力进行2范数和无穷大泛数双重判据的推力优化分配;使用对偶原理将推力优化分配的原问题转化为线性等式的对偶问题,利用神经网络方法求解该线性等式得到推力分配的优化解;根据每个推进器的控制电压—推力曲线,将优化解得到的每个推进器推力进行多次艾特金插值,得到推进器的输出电压,实现水下机器人多个自由度的运动控制。本发明可最大限度地利用推进器同时完成机器人的多自由度运动,对水下机器人的精确控制、容错控制、抗扰控制、作业过程中的姿态稳定控制等方面有重要作用。
-
公开(公告)号:CN105824236A
公开(公告)日:2016-08-03
申请号:CN201610130731.7
申请日:2016-03-08
Applicant: 哈尔滨工程大学
IPC: G05B13/04
CPC classification number: G05B13/04
Abstract: 本发明公开了一种水下机器人的自适应组网通信方法。根据AUV节点之间的相对距离,对于距离领航员AUV节点较远而距离其他跟随AUV较近的节点采用线性拓扑传输方式,而对于其他AUV节点采用一对多竞争拓扑传输方式。在线性拓扑传输过程中,领航员AUV和所有的跟随AUV通过广播与应答的方式实现时间同步,之后节点根据距离领航员AUV和数据传输的效果选择负责外围节点的通信或休眠,这就降低了领航AUV的能量消耗,提高了整个AUV编队组网的生存时间。而一对多竞争的自适应通信方法包含了一种四路握手传输方法,该发明可以降低传输的丢包率并提高网络的吞吐量。
-
公开(公告)号:CN103112561B
公开(公告)日:2015-05-20
申请号:CN201210439839.6
申请日:2012-11-07
Applicant: 哈尔滨工程大学
IPC: B63C7/16
Abstract: 本发明提供的是一种欠驱动AUV水下回收装置。定位槽与第一连杆连接,第一连杆的另一端穿过骨架上的定位孔与多端口连接块相连,多端口连接块在轴向上还与第二连杆连接,第二连杆的另一端接入制动器,制动器安装于骨架上,多端口连接块的每一个端口与一个第二机械臂的一端铰接,第二机械臂的另一端与一个第一机械臂的一端铰接,每个第一机械臂又通过连接件与骨架铰接,每个第一机械臂上设置有防滑手。防滑手及机械臂在骨架上以定位槽的轴线周向布置,可通过控制定位槽的轴向运动从而控制防滑手及机械臂的周向运动来实现对AUV的回收。该AUV水下回收装置结构灵活紧凑并具有一定的抗干扰能力,适用于潜艇或其他具有水下定位能力的载具上。
-
公开(公告)号:CN104299248A
公开(公告)日:2015-01-21
申请号:CN201410612427.7
申请日:2014-11-04
Applicant: 哈尔滨工程大学
IPC: G06T7/20
Abstract: 本发明涉及一种利用前视声呐图像对水下多个动态目标运动预测的方法,其特征在于:读取前视声呐图像,采用双阈值分割方法提取图像中动态目标区域;计算动态目标区域确定矩阵Ω,判断是否有新的动态目标轨迹出现;如果多个水下动态目标运动预测问题可以转化为多个独立动态目标分别预测问题,则采用粒子滤波方法对动态目标进行运动预测;如果多个水下动态目标运动预测问题不能转化为多个独立动态目标分别预测问题,确定粒子预测线索的融合策略,计算粒子权值,完成动态目标新的位置预测;将当前多个量测与多个动态目标预测轨迹进行关联;重复前述步骤,直至动态目标运动预测任务结束,相应得到的轨迹为动态目标运动的最终轨迹。
-
公开(公告)号:CN102052923A
公开(公告)日:2011-05-11
申请号:CN201010559044.X
申请日:2010-11-25
Applicant: 哈尔滨工程大学
Abstract: 本发明提供的是一种小型水下机器人组合导航系统及导航方法。该组合导航系统包括嵌入式导航处理机、耐压GPS、微型姿态传感器、速度计、深度计、水声通讯设备。当水下机器人载体在水下时,组合导航系统上电后,导航系统自主运行,通过AD板IO通道控制继电器打开传感器,进行数据采集,获得导航初始位置,根据磁偏角数据库计算得出磁偏角,接收规划导航位置校正指令信息,进行导航位置推算,从而获得水下机器人的经纬度位置信息。该系统体积小、重量轻、成本低,利于实现水下导航系统小型化,可应用于要求体积重量小的水下观察、探测及小型水下机器人。
-
公开(公告)号:CN101244756B
公开(公告)日:2010-10-13
申请号:CN200810064112.8
申请日:2008-03-13
Applicant: 哈尔滨工程大学
IPC: B63B43/12
Abstract: 本发明提供的是一种水密无人艇倾覆自动恢复装置。它由高压储气罐(1)、充气控制电磁阀(2)、排气控制电磁阀(3)、充气控制开关(4)、排气控制开关(5)、开关控制器(6)、气囊(8)、电池组(9)、充气通气管(11)和排气通气管(10)组成。本发明结构简单而且所采用的装置都比较普通廉价,采用高压空气来填充气囊,安全无污染,选用机械式开关控制器,成本低廉,制作方便却完全能实现自动控制的要求,避开了复杂而繁琐的控制机构和控制系统,仅需要十几伏的低压电池组就可以维持系统的正常工作,具有节能高效的优点。
-
公开(公告)号:CN101659320A
公开(公告)日:2010-03-03
申请号:CN200910072923.7
申请日:2009-09-18
Applicant: 哈尔滨工程大学
IPC: B63H25/26
Abstract: 本发明提供的是一种无人潜水器用转速可调节智能化舵机。包括步进电机、步进电机驱动器、舵轴角度光栅感应器、PC/104计算机、PC/104总线AD采集卡、PC/104总线脉冲输出板。步进电机密封于水密外壳中,驱动轴通过动密封伸出与舵轴通过轴系联接;PC/104计算机、AD采集卡和脉冲输出板插接,和步进电机驱动器一起密封于水密外壳中。PC/104计算机水密外壳上设置三个水密插头。舵轴角度光栅感应器安装于舵轴处,舵轴角度光栅感应器的信号反馈端与电压采集端联结,将PC/104计算机与控制舱主控计算机通过RS-232串行通信联结。本发明可根据航速,智能决定舵叶转动速度,避免扭矩不够步进电机无法转动等舵机失误动作,并有效测定舵轴转动不到位等故障,保证无人潜水器方向控制的精确度。
-
公开(公告)号:CN101337578A
公开(公告)日:2009-01-07
申请号:CN200810137018.0
申请日:2008-08-27
Applicant: 哈尔滨工程大学
Abstract: 本发明提供的是三油囊调节的水下机器人及其定深控制方法。通过相应传感器获取深度、纵向速度、姿态角度等信息。根据主控计算机指令决定静态下潜或运动下潜。若指令为静态下潜,艏、舯、艉同时从油囊中抽油,减少油囊排水体积,使水下机器人从总体上浮力<重力,实现下沉;若指令为运动下潜,轴向主推力器开动,加速进入定速运动状态,艏部储油罐从艏油囊中吸油,减少艏油囊排水体积;从艉储油罐向艉油囊内排油,增大艉油囊排水体积。水下机器人从零纵倾变为艏重状态,埋艏。此时轴向运动耦合埋艏运动,实现有纵倾下潜。静态上浮或运动上浮时,吸排油动作与之相反。本发明对于长距离航行的水下机器人在节省能量上具有特别意义。
-
公开(公告)号:CN101323363A
公开(公告)日:2008-12-17
申请号:CN200810136825.0
申请日:2008-07-30
Applicant: 哈尔滨工程大学
Abstract: 本发明提供的是一种大深度无人潜水器及其深度复合控制方法。其组成包括潜器主体,安装在潜器主体艉部的艉部主螺旋桨,安装在潜器主体艏部的艏部水平翼,安装在潜器主体艉部的艉部水平翼,在潜器主体内部设置有浮力调节水舱,在潜器主体的艉部和艏部分别设置有艉垂向槽道桨和艏垂向槽道桨,由一台嵌入有控制核心程序的在主控耐压舱内一台PC/104计算机进行控制。从水面状态开始,向浮力调节水舱注水;在距离预定深度还有50m距离时开始吹除浮力调解水舱中的压载水;依靠垂向槽道桨提供向上的力;待无人潜水器的下沉速度减缓到0.5m/s以下时,进入定速航行状态,依靠艏、艉水平翼控制纵倾,进而耦合轴向运动,精确控制深度。
-
-
-
-
-
-
-
-
-