-
公开(公告)号:CN102141144A
公开(公告)日:2011-08-03
申请号:CN201110075703.7
申请日:2011-03-29
Applicant: 吉林大学
IPC: F16H61/04
Abstract: 作业车辆三参数自动变速控制方法属工程机械技术领域,本发明包括:将油门开度、车速和作业载荷系数作为作业车辆自动变速的参数;针对不同三参数决定的工况离线匹配,获得全工况最优换挡分布表;进行实际变速控制时,可根据11组最优变速特性曲线,采用插值法获得任意作业载荷系数和任意油门开度时的最优换挡点;还可根据最优变速特性曲线,直接拟合出最优换挡点速度与作业载荷系数、油门开度的函数关系,并将函数写入自动换挡控制器中进行自动变速控制。采用本发明可使作业车辆的传动系载荷波动变小、燃油效率提高、主要零部件寿命延长、动力性经济性变好、环境污染减少,可广泛适用于自行式工程车辆、矿用车辆、农用车辆、军用车辆的自动变速。
-
公开(公告)号:CN113284179B
公开(公告)日:2022-09-13
申请号:CN202110575065.9
申请日:2021-05-26
Applicant: 吉林大学
Abstract: 本发明公开了一种基于深度学习的机器人多物体分拣方法,所述分拣方法具体步骤如下:首先利用旋转目标检测网络检测任务场景中目标物体的类别、位置及旋转角度;之后通过实例分割网络分割出物体表面像素,利用相机标定、主成分分析法和欧拉角法对分割出的像素进行处理,获得目标物体的姿态;然后通过基于先验知识的物体分拣次序推理算法获得物体的分拣次序;最后机器人根据获得的物体分拣次序和位姿,自主完成多物体分拣任务。本发明基于深度学习的方法实现了场景中物体位姿和分拣次序的获取,使机器人能够在非结构化场景中对堆叠的多物体进行安全、稳定和准确的分拣操作。
-
公开(公告)号:CN108509025A
公开(公告)日:2018-09-07
申请号:CN201810078017.7
申请日:2018-01-26
Applicant: 吉林大学
Abstract: 本发明涉及一种基于肢体动作识别的起重机智能吊装系统,其特征在于基于六个控制单元的人机交互系统,1)大变焦网络摄像头连续采集指挥人员多组标准肢体动作,2)大变焦网络摄像头通过云台架于起重机驾驶舱上,实时采集指挥人员肢体动作,先后进入轮廓提取单元和特征提取单元后获取指挥人员手势Hu图像矩特征向量;3)具体通过采用SVM机器学习算法的样本分类器进行查询,返回最匹配的肢体动作样本类,从而将相应的起重机指挥信号传给起重机控制器完成起重机吊装工作;其克服上述现有肢体动作识别技术的不足,以及人为判断指挥信号方式不够友好,其以起重指挥信号国家标准GB5082-85为参照,能够对指挥人员实时追踪,具有成本低、鲁棒性强和实时性高等优点。
-
公开(公告)号:CN106652650A
公开(公告)日:2017-05-10
申请号:CN201710086713.8
申请日:2017-02-17
Applicant: 吉林大学
Abstract: 本发明涉及一种具有触觉引导的直升机模拟操纵负荷模拟装置,其特征在于:台面板底座由台面板底座下底板和台面板底座台面板组成,台面板底座下底板顶面固定连接台面板底座台面板,固定底座固定连接在台面板底座台面板的顶面,横向运动伺服电机通过固定底座与台面板底座台面板固定连接,横向运动伺服电机前端有横向运动盘式减速器,横向运动盘式减速器的外耳与固定底座连接,旋转支架呈直角结构,旋转支架的底面与横向运动盘式减速器的法兰面固定连接,其可根据直升机动力学模型和操纵杆模型实时、精确地提供触觉引导力,模拟高逼真的临场力感。同时,针对不同的直升机机型,可采用编程的方式来模拟各机型在力感上的细微差别,具有较好的适应性和通用性。
-
公开(公告)号:CN102141144B
公开(公告)日:2013-10-16
申请号:CN201110075703.7
申请日:2011-03-29
Applicant: 吉林大学
IPC: F16H61/04
Abstract: 作业车辆三参数自动变速控制方法属工程机械技术领域,本发明包括:将油门开度、车速和作业载荷系数作为作业车辆自动变速的参数;针对不同三参数决定的工况离线匹配,获得全工况最优换挡分布表;进行实际变速控制时,可根据11组最优变速特性曲线,采用插值法获得任意作业载荷系数和任意油门开度时的最优换挡点;还可根据最优变速特性曲线,直接拟合出最优换挡点速度与作业载荷系数、油门开度的函数关系,并将函数写入自动换挡控制器中进行自动变速控制。采用本发明可使作业车辆的传动系载荷波动变小、燃油效率提高、主要零部件寿命延长、动力性经济性变好、环境污染减少,可广泛适用于自行式工程车辆、矿用车辆、农用车辆、军用车辆的自动变速。
-
公开(公告)号:CN103105851A
公开(公告)日:2013-05-15
申请号:CN201310011735.X
申请日:2013-01-12
Applicant: 吉林大学
IPC: G05D1/00
Abstract: 本发明提供一种遥操作机器人基于视觉的动觉示教控制方法,其步骤包括采用立体视觉技术对现场的作业对象及背景环境(障碍物)进行识别与空间信息提取;以通过视觉识别、计算出的作业对象与机器人末端间的位姿关系为参数,构建作业对象对机器人的虚拟吸引力;以机器人末端沿其速度方向与背景环境(障碍物)的距离为参数,构建机器人所受的障碍物排斥力;将作业对象虚拟吸引力、障碍物虚拟斥力以及机器人抓取物体时的真实作用力合成机器人示教力;通过主端系统与从端系统间的雅可比矩阵,将示教力向操作手柄反馈,从而实现对操作者的动觉示教。本发明可有效提高主从机器人系统的智能性、安全性与易操控性。
-
公开(公告)号:CN115457833B
公开(公告)日:2024-04-19
申请号:CN202211162485.5
申请日:2022-09-15
Applicant: 吉林大学
Abstract: 本发明涉及一种海上作业直升机的牵引机器人轨迹控制实验台,本发明由框架、十字运动平台、直升机模型、控制箱、计算机、显示器组成,能够实现对不同型号海上作业直升机的牵引机器人轨迹控制问题进行实验。本发明结构新颖,设计巧妙,既降低了实验危险性,又能更容易方便地检验实验效果。本发明既能为海上作业直升机的牵引机器人的轨迹控制研究提供实验条件,验证控制方法的效果,又可作为大学教育中现代控制方法课程教学的实验台。
-
公开(公告)号:CN115187651A
公开(公告)日:2022-10-14
申请号:CN202210805198.5
申请日:2022-07-08
Applicant: 吉林大学
Abstract: 本发明适用于机构学与机器视觉的交叉技术领域,提供了一种基于视觉的Stewart机构位姿确定方法,包括双目视觉系统的搭建、最优视场求取、双目视觉系统的标定、深度求取和实验验证等步骤。本发明中的一种基于视觉的Stewart机构位姿确定方法,以Stewart机构工作空间特性为基础,结合景深、焦距、视场角和光心距离等与摄像机特性有关的参数,建立最佳视场和ArUco标识;以张正友法结合Stewart机构工作空间特点进行双目视觉系统标定;采用最小二乘法求取对象的深度信息,通过P4P方法获得平台上表面的位置信息。以视场优化的方法解决图像处理速度与定位精度之间的矛盾,以双目视觉技术克服单目视觉技术在ArUco码深度信息精度不足的缺陷,从而获得高速高精度的视觉伺服效果。
-
公开(公告)号:CN110666799A
公开(公告)日:2020-01-10
申请号:CN201910975566.9
申请日:2019-10-15
Applicant: 吉林大学
IPC: B25J9/16
Abstract: 本发明公开了一种基于重力补偿的六自由度串联机器人柔顺控制方法,属于机器人运动的柔顺控制领域,所述控制方法具体步骤如下:获取机器人底座安装倾角与末端工具重力,获取力传感器的零点数据与末端工具重心在传感器坐标系下的坐标,利用机器人姿态变换矩阵,获取机器人在不同姿态下的重力补偿值,通过导纳控制方法,将力偏差作为控制系统的输入来调整机器人的末端位置。本发明提出了通过对力传感器重力补偿的方式,提高传感器对环境感知力的精度,为机器人的柔顺控制提供了精准的数据基础,采用导纳控制策略,使运动控制的误差来自机械人的位置控制精度,降低了误差,并且不需要建立精确的动力学模型,减少了计算量,鲁棒性较强。
-
公开(公告)号:CN109948469A
公开(公告)日:2019-06-28
申请号:CN201910153856.5
申请日:2019-03-01
Applicant: 吉林大学
Abstract: 本发明公开了基于深度学习的巡检机器人仪表自动检测识别方法,所述方法具体包括以下步骤:(1)采集仪表图像进行数据标记得到训练所需数据,并训练目标检测模型(SSD)及关键点检测模型;(2)利用步骤(1)中得到的SSD目标检测模型对待识别示数的仪表图像目标识别,得到仪表的种类及边框,并裁剪仪表区域;(3)利用步骤(1)得到的关键点检测模型对步骤(2)得到的仪表区域进行关键点识别,得到指针仪表的中心点、零点、满量程点及指针末端点;(4)结合仪表的种类,利用步骤(3)得到的点计算示数进行指针示数识别。本发明提出的指针仪表示数识别方法,其能同时识别不同类型的指针仪表,且无需考虑仪表姿态和尺度等问题,极大提高了指针仪表示数识别的精度。
-
-
-
-
-
-
-
-
-