-
公开(公告)号:CN116992964A
公开(公告)日:2023-11-03
申请号:CN202310897598.8
申请日:2023-07-20
Applicant: 西北工业大学
IPC: G06N5/04 , G06F18/22 , G06F18/24 , G06F18/214
Abstract: 本发明涉及机器人智能体技能学习领域,具体涉及一种基于案例推理的机器人智能体技能学习与泛化方法,包括:构建案例库,获取案例库中与当前任务场景下的机器人智能体的每个状态向量最相似的目标案例,获取当前任务场景下的初始动作策略,获取目标动作策略,获取最终动作策略。本方法克服了使用深度神经网络拟合动作策略带来的动作策略可解释性低的问题,提高了机器人智能体的任务效率。
-
公开(公告)号:CN119098986A
公开(公告)日:2024-12-10
申请号:CN202411223338.3
申请日:2024-09-03
Applicant: 西北工业大学
Abstract: 本发明涉及一种基于视触觉感知的轴孔操作精细感知方法,属于机器人触觉感知与规划领域。包括:提取视触觉传感器的光流图像,基于光流图像分析视触觉传感器的各个方向的光流合矢量;基于各个方向的光流合矢量获得所夹持物体相对于夹爪的运动趋势;基于所夹持物体相对于夹爪的运动趋势,获得当前的轴孔接触作用点相对方位;基于所夹持物体相对于夹爪的运动趋势获得当前轴孔相对接触位置;基于当前的轴孔接触作用点相对方位和当前轴孔相对接触位置,设计闭环反馈控制器调整轴孔相对位置直至对齐。本发明方法解决了传统视觉定位和感知在精细操作和极端环境任务中受遮挡的问题,实现了更高精度的快速轴孔装配的方法。
-
公开(公告)号:CN118418119A
公开(公告)日:2024-08-02
申请号:CN202410508600.2
申请日:2024-04-26
Applicant: 西北工业大学
Abstract: 本发明涉及机器人任务感知技术领域,具体涉及一种基于视‑触觉混合建模的机器人操作任务精细感知与定位方法,包括:获取机器人的任务目标图像;将任务目标图像划分为多个单次触觉扫掠区域;获取优化后的目标单次触觉扫掠区域,并获取关于视触觉的rgb图像;提取rgb图像中的边缘轮廓,并依次进行轮廓拼接、补全得到目标边缘轮廓;获取任务目标的最终轮廓区域。本发明将采用视觉与触觉结合建模的方法,以实现更高精度的任务目标的定位。
-
公开(公告)号:CN116047904A
公开(公告)日:2023-05-02
申请号:CN202211737858.7
申请日:2022-12-30
Applicant: 西北工业大学
Abstract: 本发明公开了一种面向机器人操作技能学习的人员仿真现实混合训练方法,首先进行基于规则知识指导的复杂操作任务阶段的划分及运动规划的生成,使用人的先验知识分析所要学习的操作技能的流程,把操作过程划分成若干阶段;其次构建了融合专家偏好评价和固定指标评价的操作技能学习优化方法;之后构建了一种从仿真环境到实际场景的操作技能转移及评价框架,以相似度函数为依据,生成实际环境中的探索参数与动作指令,完成操作技能的转移;最后构建了机器人技能学习与技能转移的逻辑框架,通过迭代的方法渐次提升机器人操作技能学习的完成度和技能转移的完整度。本发明有效提高了机器人技能学习的效率。
-
-
-