-
公开(公告)号:CN119704204B
公开(公告)日:2025-05-02
申请号:CN202510193237.4
申请日:2025-02-21
Applicant: 湖南大学
Abstract: 本发明公开了用于机械手的鲁棒视觉约束控制方法、系统和计算机设备,结合机械臂动力学模型、视觉伺服运动学模型以及相机与机械臂之间的手眼标定关系,建立视觉伺服系统整体的动态模型;结合视觉伺服运动学模型,通过设计时变非对称控制障碍函数,得到将视觉伺服特征误差约束在预设范围内的约束满足条件,并设计最优视觉伺服速度控制器,结合机器人动力学模型,通过时变非对称控制障碍函数得到将关节角速度约束在预设范围内的约束满足条件,同时结合视觉伺服特征误差约束满足条件,设计最优力矩控制器,结合二次规划,得到满足性能约束的力矩控制信号,驱动机器人到达期望特征位置。提高视觉伺服任务成功率,实现机械臂高精度视觉引导装配作业。
-
公开(公告)号:CN119188783B
公开(公告)日:2025-03-21
申请号:CN202411687643.8
申请日:2024-11-25
Applicant: 湖南大学
Abstract: 一种多末端执行器自主切换的复合移动机器人作业方法与系统,作业方法包括:1、全场景地图建模;2、将涂胶枪换装到机械臂末端,机器人对待装配结构件待涂胶位置进行路径规划并涂胶;3、获取机器人抓取待装配结构件的抓取位姿;4、将机械臂末端切换为二指夹爪,依据抓取位姿将待装配结构件从库内取出;5、获取待装配结构件待装配位置的位姿,确定待装配结构件在待装配蒙皮上的装配位姿,将待装配结构件粘接在待装配蒙皮上;6、获取待装配结构件和待装配蒙皮粘合后螺孔的位姿;将螺丝枪换装到机械臂末端,将待装配结构件固定在待装配蒙皮上。本发明可根据待装配结构件类型,自主确定其在蒙皮上的装配位置,通过单机器人实现了大型部件装配。
-
公开(公告)号:CN118848998B
公开(公告)日:2025-01-21
申请号:CN202411347391.4
申请日:2024-09-26
Applicant: 湖南大学
Abstract: 本发明公开了一种基于贝叶斯交互基元的双臂机器人技能学习方法,搭建双臂机器人技能学习平台,以控制双臂机器人和采集数据;通过遥操作对双臂机器人进行示教,采集专家示教数据;建立贝叶斯交互基元学习框架,使用基函数拟合示教轨迹;通过多传感器获取当前状态的多模态数据,采用序列对齐和动态捕捉的方法进行时空推理,得到当前状态的相位,贝叶斯交互基元根据当前相位输出双臂机器人未来动作序列的后验分布;每个时间步都根据当前和历史输出的动作序列的相应动作进行加权平均后执行,直到完成相位估计任务。技能学习效率高、示教方式简单易行、技能学习效果优异,有效解决了双臂机器人技能发育慢、双臂操作协同性差、操作流畅性低的问题。
-
公开(公告)号:CN119188784A
公开(公告)日:2024-12-27
申请号:CN202411698119.0
申请日:2024-11-26
Applicant: 湖南大学
Abstract: 本发明公开了一种基于动态运动基元的双臂机器人自适应技能学习方法,获取示教数据,建立动态运动基元模型,通过动态运动基元模型,双臂分别从示教数据中学习轨迹的形状特征,生成对应的轨迹形状函数,得到初始的轨迹控制权重;获取新的任务目标点,将学习到的初始的轨迹控制权重、轨迹形状函数,结合新的任务目标点,生成与示教轨迹相似的初始轨迹;对初始轨迹进行优化得到优化后的轨迹形状,得到优化后的轨迹控制权重;将优化后的轨迹控制权重带入动态运动基元模型,并利用基于轨迹变化率的自适应时间缩放因子进行自适应调整,生成双臂的优化轨迹。确保机器人高效、精确地完成任务。
-
公开(公告)号:CN118864827A
公开(公告)日:2024-10-29
申请号:CN202411345989.X
申请日:2024-09-26
Applicant: 湖南大学
IPC: G06V10/25 , G06N3/0464 , G06N3/084 , G06V10/764 , G06V10/80 , G06V10/82 , G06V20/64
Abstract: 一种针对大型装配过程全场景的统一化三维目标检测方法,包括:1、构建全场景激光雷达感知平台,采集三维点云数据;2、制作装配制造场景的检测数据集;3、构建三维目标检测模型;4、将训练集中的数据输入到三维目标检测模型中,得到目标分类结果和目标边界框回归结果;5、构建总损失函数,计算目标分类结果与目标边界框回归结果的损失值,循环4至5,直至总损失函数收敛,更新权重,得到训练后的三维目标检测模型;6、对训练后的三维目标检测模型进行测试,得到检测结果。本发明增加了装配效率,提高了装配质量,能及时发现和处理装配过程中的问题,避免了制造业中传统人工装配过程的安全隐患,有助于推动工业智能制造快速且高质量的发展。
-
公开(公告)号:CN118544363B
公开(公告)日:2024-10-01
申请号:CN202411009284.0
申请日:2024-07-26
Applicant: 湖南大学
IPC: B25J9/16
Abstract: 本发明公开了一种基于自适应阻抗的多移动机器人协同搬运控制方法,每个移动机器人通过两个有限时间全分布式观测器分别估计参考点的实际位姿和理想位姿及其前二阶微分,然后根据估计的参考点的位姿、机械臂末端执行器的位姿以及协同搬运的闭链约束得到移动机器人末端的理想轨迹和移动机器人末端与参考点之间位姿偏差的估计值;每一个移动机器人的自适应阻抗系统与一个虚拟的能量罐互联,能量罐用于指导阻抗参数的更新,从而保证整个协作自适应阻抗系统的无源性;处理移动机器人未知的系统动力学,利用神经网络设计渐近跟踪自适应神经网络控制器,从而渐近实现理想的自适应阻抗关系。在安全协作的前提下提高了多机器人协同搬运系统的操作精度。
-
公开(公告)号:CN118650634A
公开(公告)日:2024-09-17
申请号:CN202411133433.4
申请日:2024-08-19
Applicant: 湖南大学
Abstract: 一种基于深度学习的多机器人柔性物体伺服方法,包括:1、搭建多机协同操作柔性物体装配场景;2、确认柔性物体位置以及抓取点,控制双机器人协同抓取柔性物体;3、双机器人协同柔性物体伺服成多组形状,并记录柔性物体的点云信息和机器人末端位置信息;4、特征提取器提取点云信息的特征向量,并训练形变控制模块;5、收集一组随机生成的形状点云信息并导入到形变控制模块中,输出运动指令,控制双机器人协同抓取柔性物体,并将物体形状伺服到目标形状。本发明设计了一套基于深度学习、柔性物体形状伺服和多机协同控制的框架,提高了机器人对不同材料可形变零件的形状伺服的泛化性,提升柔性部件形状伺服作业任务的复杂度和精确度。
-
公开(公告)号:CN118524140A
公开(公告)日:2024-08-20
申请号:CN202410769021.3
申请日:2024-06-14
Applicant: 湖南大学
IPC: H04L67/2871 , H04L67/60
Abstract: 本发明公开了一种基于FastRTPS和共享内存的机器人通信中间件,主要针对机器人系统中不同主机间及同一主机内部的高效数据交换需求,结合FastRTPS技术和共享内存技术,提出了一种创新的通信架构。本发明的通信中间件通过融合这两种技术,既能应对大规模分布式系统的通信需求,又能满足对延迟敏感的实时应用的需求。该通信中间件设计中,包括传输设备、接收设备和监听设备三种主要的通信实体,通过通信层创建和管理。这种架构不仅优化了数据发送和接收流程,还通过统一的发布‑订阅接口,实现了高效的数据路由和处理,提高通信效率和实时性,预期能大幅提升机器人系统的通信性能,满足未来复杂机器人应用的高要求。
-
公开(公告)号:CN118219260A
公开(公告)日:2024-06-21
申请号:CN202410357010.4
申请日:2024-03-27
Applicant: 湖南大学
Abstract: 本发明公开了一种动态场景下移动机械臂的运动控制方法及其应用,采用模型预测控制,对未来一段时间内的状态与控制输入量进行预测,将机械臂末端位姿与目标位姿之间的偏差作为一个二次代价项添加到代价函数,并且在移动机械臂的突出位置设置若干个碰撞点,将这些碰撞点与空间中障碍物的距离作为一个惩罚项添加到代价函数,同时将机器人的运动速度、运动加速度、机械臂关节角度运动范围、关节角加速度以及机器人自碰撞避免作为约束添加到模型预测控制器,求解出最优的一组控制输入队列作用在机器人的控制器,解决了现有移动机械臂在面对动态复杂场景下的适应力差,稳定性不足等缺陷,提高了移动机械臂机器人工作稳定性。
-
公开(公告)号:CN117593368A
公开(公告)日:2024-02-23
申请号:CN202311541108.7
申请日:2023-11-17
Applicant: 湖南大学
Abstract: 针对现阶段6D位姿估计方法在一些在场景杂乱等情况下性能表现不佳的问题,本发明目的在于提供一种基于迭代注意力机制的6D位姿估计方法,该方法搭建迭代注意力融合网络,包括语义分割网络、卷积神经网络、点云网络、迭代注意力模块、位姿预测模块和位姿迭代优化模块;以RGB图像和深度图像作为网络的输入,并通过卷积神经网络、点云网络从图像中提取出来语义特征、外观特征和几何特征,将这些特征进行密集融合,然后经过迭代注意力模块处理后输入到位姿预测模块中输出预测6D位姿,预测6D位姿信息进一步输入到位姿迭代优化模块,得到最终的6D位姿。有效提高了场景杂乱情况下目标物体的识别效率和准确性。
-
-
-
-
-
-
-
-
-