-
公开(公告)号:CN119658701B
公开(公告)日:2025-04-22
申请号:CN202510173902.3
申请日:2025-02-18
Applicant: 暨南大学
IPC: B25J9/16 , G06N3/0455 , G06N3/0464 , G06N3/092 , G06T7/73 , G06T7/80
Abstract: 本发明公开了一种基于深度强化学习的机器人自动化手眼标定方法及系统,该方法包括下述步骤:获取初始手眼矩阵;筛选生成的随机姿态,聚类分析得到多个初始标定姿态;获取初始标定姿态对应标定板图像,预处理后输入视角‑距离卷积神经网络VDCNN,视角‑距离卷积神经网络VDCNN基于深度强化学习拟合视角‑距离动作价值函数,预测最佳视角‑距离调整动作,输出视角价值图和距离价值向量;基于视角价值图得到视角调整像素点,将视角调整像素点转换为旋转矩阵,根据旋转矩阵旋转机器人,实现视角的调整;基于距离价值向量得到距离调整幅度,对机器人进行距离调整,得到最终的手眼标定姿态。本发明显著提高了标定精度和鲁棒性。
-
公开(公告)号:CN119658701A
公开(公告)日:2025-03-21
申请号:CN202510173902.3
申请日:2025-02-18
Applicant: 暨南大学
IPC: B25J9/16 , G06N3/0455 , G06N3/0464 , G06N3/092 , G06T7/73 , G06T7/80
Abstract: 本发明公开了一种基于深度强化学习的机器人自动化手眼标定方法及系统,该方法包括下述步骤:获取初始手眼矩阵;筛选生成的随机姿态,聚类分析得到多个初始标定姿态;获取初始标定姿态对应标定板图像,预处理后输入视角‑距离卷积神经网络VDCNN,视角‑距离卷积神经网络VDCNN基于深度强化学习拟合视角‑距离动作价值函数,预测最佳视角‑距离调整动作,输出视角价值图和距离价值向量;基于视角价值图得到视角调整像素点,将视角调整像素点转换为旋转矩阵,根据旋转矩阵旋转机器人,实现视角的调整;基于距离价值向量得到距离调整幅度,对机器人进行距离调整,得到最终的手眼标定姿态。本发明显著提高了标定精度和鲁棒性。
-