一种基于非线性主动悬架的自适应神经网络控制方法

    公开(公告)号:CN113791539A

    公开(公告)日:2021-12-14

    申请号:CN202110972858.4

    申请日:2021-08-24

    Applicant: 吉林大学

    Abstract: 本发明公开了一种基于非线性主动悬架的自适应神经网络控制方法,属于汽车动态控制和人工智能技术领域,所述方法包括:获取汽车非线性液压悬架系统动力学模型;通过充分考虑悬架系统的非线性以及不确定性问题,获取初始径向基神经网络模型,通过所述径向基初始神经网络模型和汽车液压悬架系统动力学模型得到汽车液压悬架系统动力学优化模型;提出自适应神经网络控制器,通过所述自适应神经网络控制器实时更新汽车液压悬架系统优化模型中的权重因子,解决悬架长时间控制过程中作动器参数的变化以及系统的额外干扰问题。从仿真结果可以看出控制器可以有效地抑制路面激励带来的车身震荡,从而提高驾驶安全性和舒适性。

    一种基于位置速度控制的遥操作机器人碰撞预警方法

    公开(公告)号:CN105911995A

    公开(公告)日:2016-08-31

    申请号:CN201610429644.1

    申请日:2016-06-16

    Applicant: 吉林大学

    CPC classification number: G05D1/0276 G05D2201/0207

    Abstract: 本发明提供一种基于位置速度控制的遥操作机器人碰撞预警方法,其步骤包括:首先将主手控制器视为积分器,通过位置积分计算出对机器人位置的期望值,实现机器人任务速度与手控器位置的有效对应,然后根据手控器位置信号主动预测出未来时刻机器人的位置,当机器人与环境临近碰撞状态时生成预警力,最后将反馈力与操作者手动控制力进行融合,引导操作者控制机器人避开障碍物,完成作业过程。本发明可将人类智能决策与机器智能相结合,有效提高机器人的作业精度与效率,减轻操作者的作业负担,降低对操作者技术熟练度的依赖,避免系统延时导致对机器人控制的盲目性。

    一种基于力融合的机器人手控器共享控制方法

    公开(公告)号:CN103991077B

    公开(公告)日:2015-12-09

    申请号:CN201410056953.X

    申请日:2014-02-19

    Applicant: 吉林大学

    Abstract: 本发明提出一种基于力融合的手控器共享控制方法,其步骤包括:首先以目标对象为导向,通过操作者自身的智能决策实现人手操纵手控器控制机器人运动;同时通过立体视觉技术获取作业场景图像数据并实时重构三维环境,以目标对象为导向构建使机器人自主接近目标的虚拟引导力,以此虚拟力引导手控器控制机器人运动,并将操作者的操纵力与目标对象的虚拟引导力进行融合,通过融合力对手控器和机器人的运动进行控制,实现机器智能与人类智能共同作用下控制机器人接近目标对象,完成作业过程。本发明可实现人类智能与机器智能的有效结合,保证作业过程安全、快速的进行。

    一种行走机械非行驶功率测量系统

    公开(公告)号:CN102564666B

    公开(公告)日:2015-07-15

    申请号:CN201210044632.9

    申请日:2012-02-26

    Applicant: 吉林大学

    Abstract: 本发明涉及一种行走机械非行驶功率测量系统。主要由结构相同的m组液压泵/马达功率测量传感器组和n组电动机/发电机功率测量传感器组构成,m组包括分别用于检测液压泵/马达压力、转速、转角的压力传感器、转速传感器、转角传感器以及m组加减开关;n组包括分别用于检测电动机/发电机电压、电流的电压传感器、电流传感器以及n组加减开关;m组和n组传感器组的检测信号通过线束输入测量单元,经测量单元接收到各传感器的信号后,根据m组加减开关或n组加减开关的状态、内部储存的算法进行功率计算,并将结果通过线束送显示装置进行显示。本发明采用普通传感器,具有适用性强、广泛,测量简便,不对原行走机械进行大的结构改动等优点。

    一种遥操纵机器人基于视觉的动觉示教控制方法

    公开(公告)号:CN103105851B

    公开(公告)日:2015-03-11

    申请号:CN201310011735.X

    申请日:2013-01-12

    Applicant: 吉林大学

    Abstract: 本发明提供一种遥操作机器人基于视觉的动觉示教控制方法,其步骤包括采用立体视觉技术对现场的作业对象及背景环境(障碍物)进行识别与空间信息提取;以通过视觉识别、计算出的作业对象与机器人末端间的位姿关系为参数,构建作业对象对机器人的虚拟吸引力;以机器人末端沿其速度方向与背景环境(障碍物)的距离为参数,构建机器人所受的障碍物排斥力;将作业对象虚拟吸引力、障碍物虚拟斥力以及机器人抓取物体时的真实作用力合成机器人示教力;通过主端系统与从端系统间的雅可比矩阵,将示教力向操作手柄反馈,从而实现对操作者的动觉示教。本发明可有效提高主从机器人系统的智能性、安全性与易操控性。

    作业车辆三参数自动变速控制方法

    公开(公告)号:CN102141144A

    公开(公告)日:2011-08-03

    申请号:CN201110075703.7

    申请日:2011-03-29

    Applicant: 吉林大学

    Abstract: 作业车辆三参数自动变速控制方法属工程机械技术领域,本发明包括:将油门开度、车速和作业载荷系数作为作业车辆自动变速的参数;针对不同三参数决定的工况离线匹配,获得全工况最优换挡分布表;进行实际变速控制时,可根据11组最优变速特性曲线,采用插值法获得任意作业载荷系数和任意油门开度时的最优换挡点;还可根据最优变速特性曲线,直接拟合出最优换挡点速度与作业载荷系数、油门开度的函数关系,并将函数写入自动换挡控制器中进行自动变速控制。采用本发明可使作业车辆的传动系载荷波动变小、燃油效率提高、主要零部件寿命延长、动力性经济性变好、环境污染减少,可广泛适用于自行式工程车辆、矿用车辆、农用车辆、军用车辆的自动变速。

    一种海上作业直升机的牵引机器人轨迹控制实验台

    公开(公告)号:CN115457833A

    公开(公告)日:2022-12-09

    申请号:CN202211162485.5

    申请日:2022-09-15

    Applicant: 吉林大学

    Abstract: 本发明涉及一种海上作业直升机的牵引机器人轨迹控制实验台,本发明由框架、十字运动平台、直升机模型、控制箱、计算机、显示器组成,能够实现对不同型号海上作业直升机的牵引机器人轨迹控制问题进行实验。本发明结构新颖,设计巧妙,既降低了实验危险性,又能更容易方便地检验实验效果。本发明既能为海上作业直升机的牵引机器人的轨迹控制研究提供实验条件,验证控制方法的效果,又可作为大学教育中现代控制方法课程教学的实验台。

    一种基于深度学习的机器人多物体分拣方法

    公开(公告)号:CN113284179A

    公开(公告)日:2021-08-20

    申请号:CN202110575065.9

    申请日:2021-05-26

    Applicant: 吉林大学

    Abstract: 本发明公开了一种基于深度学习的机器人多物体分拣方法,所述分拣方法具体步骤如下:首先利用旋转目标检测网络检测任务场景中目标物体的类别、位置及旋转角度;之后通过实例分割网络分割出物体表面像素,利用相机标定、主成分分析法和欧拉角法对分割出的像素进行处理,获得目标物体的姿态;然后通过基于先验知识的物体分拣次序推理算法获得物体的分拣次序;最后机器人根据获得的物体分拣次序和位姿,自主完成多物体分拣任务。本发明基于深度学习的方法实现了场景中物体位姿和分拣次序的获取,使机器人能够在非结构化场景中对堆叠的多物体进行安全、稳定和准确的分拣操作。

    一种基于热成像效应的双摄像头人脸活体检测方法

    公开(公告)号:CN108764058B

    公开(公告)日:2021-05-25

    申请号:CN201810418468.0

    申请日:2018-05-04

    Applicant: 吉林大学

    Abstract: 本发明涉及一种基于热成像效应的双摄像头人脸活体检测方法,其特征在于:以热成像效应作为活体人脸的活体特征,通过检测人脸区域是否同时满足热成像效应的三个判据,从而区分活体人脸和非活体人脸。该方法包含以下具体步骤:可见光摄像头采集照片进行人脸检测;可见光照片人脸位置定位低分辨率热成像摄像头采集照片中人脸位置;对热成像图像人脸位置进行图像形态学处理和凸包检测;判断热成像图像人脸位置是否满足热成像效应的三个判据,若同时满足这三个判据则判定为活体人脸,否则判定为非活体人脸。其适用于门禁考勤、现场监控等人脸识别活体认证系统,具有预防照片或者视频恶意欺骗系统的能力。

    一种面向未知环境的六自由度机器人力控方法

    公开(公告)号:CN111624941A

    公开(公告)日:2020-09-04

    申请号:CN202010539862.7

    申请日:2020-06-15

    Applicant: 吉林大学

    Abstract: 本发明公开了一种面向未知环境的六自由度机器人力控方法,属于机器人运动的柔顺控制领域,所述控制方法具体步骤如下:首先,获取力传感器零点数据、机器人腕部工具重力及重心坐标,确定机器人腕部工具与环境接触时产生的真实力与力矩;然后,通过机器人腕部工具与环境接触时产生的真实力与力矩,确定机器人末端运动的位控方向和力控方向;最后,获取机器人运动的参考轨迹,确定阻抗控制模型,完成机器人力控作业。本发明提出了通过对力传感器在线标定的方式,提高了力传感器的测量精度,为机器人的力控作业提供了准确的力觉感知信息,采用阻抗控制策略,来控制机器人的运动轨迹,在力控与位控之间的转换稳定,适应能力和鲁棒性较好。

Patent Agency Ranking