一种基于二维几何轮廓的点云姿态识别方法

    公开(公告)号:CN110443199B

    公开(公告)日:2021-10-15

    申请号:CN201910721163.1

    申请日:2019-08-06

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于二维几何轮廓的点云姿态识别方法,该方法的步骤包括:获取场景的三维点云、二维图片、以及由二维图片转换到三维点云所对应的单应性映射矩阵;从二维图片中提取目标物体二维轮廓;对目标物体二维轮廓进行几何特征检测,提取得到具有几何形状特征的轮廓;通过单应性矩阵将具有几何形状特征的轮廓转换为三维点云;根据几何轮廓转换后的三维点云信息,提取场景的三维点云对应的感兴趣区域点云;提取感兴趣区域点云中的平面;估计平面的法线,将平面的中心坐标设置为姿态的位置信息,将平面的法线设置为姿态的方向信息。本发明结合了由几何模型构成的物体抓取位置的特性,消除了姿态信息的冗余,提高了识别效率。

    一种基于二维几何轮廓的点云姿态识别方法

    公开(公告)号:CN110443199A

    公开(公告)日:2019-11-12

    申请号:CN201910721163.1

    申请日:2019-08-06

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于二维几何轮廓的点云姿态识别方法,该方法的步骤包括:获取场景的三维点云、二维图片、以及由二维图片转换到三维点云所对应的单应性映射矩阵;从二维图片中提取目标物体二维轮廓;对目标物体二维轮廓进行几何特征检测,提取得到具有几何形状特征的轮廓;通过单应性矩阵将具有几何形状特征的轮廓转换为三维点云;根据几何轮廓转换后的三维点云信息,提取场景的三维点云对应的感兴趣区域点云;提取感兴趣区域点云中的平面;估计平面的法线,将平面的中心坐标设置为姿态的位置信息,将平面的法线设置为姿态的方向信息。本发明结合了由几何模型构成的物体抓取位置的特性,消除了姿态信息的冗余,提高了识别效率。

    一种视觉智能数控系统及其视觉计测方法

    公开(公告)号:CN104385282A

    公开(公告)日:2015-03-04

    申请号:CN201410436325.4

    申请日:2014-08-29

    Applicant: 暨南大学

    Inventor: 王高 柳宁 叶文生

    Abstract: 本发明公开了一种视觉智能数控系统及其视觉计测方法,所述系统包括数控子系统和视觉子系统,所述数控子系统与视觉子系统之间以通信线路连接;所述数控子系统与视觉子系统之间通过配置传输参数和变量地址,实现一次原始数据的交换;所述视觉子系统安装于机器人移动部件上或工作环境的固定位置,通过标定、配置具体的参数及引用一次原始数据,将视觉子系统的采集数据变换并传送到数控子系统,实现数据变换;所述数控子系统对多个智能相机回传的同一对象数据自动处理,实现数据融合。本发明系统配置在工业机器人上可以构成视觉智能机器人,机器人的应用控制程序可以直接使用底层原始的一次状态数据与二次变换或融合数据,减少系统集成所需开发工作量。

    激光切割加工程序的生成方法

    公开(公告)号:CN101776882B

    公开(公告)日:2012-05-30

    申请号:CN201010044462.5

    申请日:2010-01-19

    Abstract: 本发明提供一种激光切割加工程序的生成方法,包括步骤1、采用相机获取待加工对象的数字图像数据,并对该数字图像进行图像预处理;步骤2、在预处理后的数字图像中人工指定检测引导线,计算机在检测引导线的引导下提取检测引导线附近的图像边界点坐标数据,并将这些坐标数据组织成坐标数据链表;步骤3、采用直线、圆弧、及参数曲线分段拟合坐标数据,形成图元数据链表;步骤4、采用三阶Hermite参数曲线光滑连接相邻图元,并将该连接图元填充到图元数据链表内;步骤5、将该图元数据链表后处理成激光切割机的运动指令,交激光切割机控制器译码后执行。本发明采用机器视觉与数字图像处理技术,人机交互,生成高质量的激光切割加工程序。

    激光切割加工程序的生成方法

    公开(公告)号:CN101776882A

    公开(公告)日:2010-07-14

    申请号:CN201010044462.5

    申请日:2010-01-19

    Abstract: 本发明提供一种激光切割加工程序的生成方法,包括步骤1、采用相机获取加待工对象的数字图像数据,并对该数字图像进行图像预处理;步骤2、在预处理后的数字图像中人工指定检测引导线,计算机在检测引导线的引导下提取检测引导线附近的图像边界点坐标数据,并将这些坐标数据组织成坐标数据链表;步骤3、采用直线、圆弧、及参数曲线分段拟合坐标数据,形成图元数据链表;步骤4、采用三阶Hermite参数曲线光滑连接相邻图元,并将该连接图元填充到图元数据链表内;步骤5、将该图元数据链表后处理成激光切割机的运动指令,交激光切割机控制器译码后执行。本发明采用机器视觉与数字图像处理技术,人机交互,生成高质量的激光切割加工程序。

    一种复杂轨迹的轮廓控制方法

    公开(公告)号:CN101114166A

    公开(公告)日:2008-01-30

    申请号:CN200710030228.5

    申请日:2007-09-13

    Applicant: 暨南大学

    Abstract: 本发明公开了一种复杂轨迹的轮廓控制方法,该方法结合一种具有轮廓误差预补偿功能的交叉耦合控制框架,对参与伺服运动的各轴建立自适应数据模型,根据当前目标位置点和若干历史位置点值,确定伺服被控对象待辨识参数,通过极点配置算法实时整定控制参数。这种根据历史控制量和未来控制量对当前控制输出加以调整的方法,有效地抑制了有界过程干扰,提高了轮廓控制的精度及过程的稳定性。

    基于深度强化学习的机器人自动化手眼标定方法及系统

    公开(公告)号:CN119658701B

    公开(公告)日:2025-04-22

    申请号:CN202510173902.3

    申请日:2025-02-18

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于深度强化学习的机器人自动化手眼标定方法及系统,该方法包括下述步骤:获取初始手眼矩阵;筛选生成的随机姿态,聚类分析得到多个初始标定姿态;获取初始标定姿态对应标定板图像,预处理后输入视角‑距离卷积神经网络VDCNN,视角‑距离卷积神经网络VDCNN基于深度强化学习拟合视角‑距离动作价值函数,预测最佳视角‑距离调整动作,输出视角价值图和距离价值向量;基于视角价值图得到视角调整像素点,将视角调整像素点转换为旋转矩阵,根据旋转矩阵旋转机器人,实现视角的调整;基于距离价值向量得到距离调整幅度,对机器人进行距离调整,得到最终的手眼标定姿态。本发明显著提高了标定精度和鲁棒性。

    基于深度强化学习的机器人自动化手眼标定方法及系统

    公开(公告)号:CN119658701A

    公开(公告)日:2025-03-21

    申请号:CN202510173902.3

    申请日:2025-02-18

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于深度强化学习的机器人自动化手眼标定方法及系统,该方法包括下述步骤:获取初始手眼矩阵;筛选生成的随机姿态,聚类分析得到多个初始标定姿态;获取初始标定姿态对应标定板图像,预处理后输入视角‑距离卷积神经网络VDCNN,视角‑距离卷积神经网络VDCNN基于深度强化学习拟合视角‑距离动作价值函数,预测最佳视角‑距离调整动作,输出视角价值图和距离价值向量;基于视角价值图得到视角调整像素点,将视角调整像素点转换为旋转矩阵,根据旋转矩阵旋转机器人,实现视角的调整;基于距离价值向量得到距离调整幅度,对机器人进行距离调整,得到最终的手眼标定姿态。本发明显著提高了标定精度和鲁棒性。

    一种从三维点云中提取二次曲面的方法

    公开(公告)号:CN110111430B

    公开(公告)日:2023-03-10

    申请号:CN201910289385.0

    申请日:2019-04-11

    Applicant: 暨南大学

    Abstract: 本发明公开了一种从三维点云中提取二次曲面的方法,首先利用每个点的K邻域点集拟合每个点对应的曲面并计算其对应的曲面参数标准差;其次按曲面参数标准差从小到大的顺序排列点集;然后从排序后的点集中依序取出每个点,当取出点对应的曲面参数标准小于设置的阈值且未被标记为已生长点时,视为初始种子点;从初始种子点开始进行区域生长,并以当前区域的序号对属于该曲面的生长点进行标记,同时对该曲面的特征参数进行动态拟合,直到一个曲面生长完毕;重复步骤从点集中取出点并进行动态拟合,直到曲面参数标准差大于阈值,最后按点云中的标记序号提取对应曲面。本发明能从三维点云中快速准确地提取二次曲面,获得最优的曲面参数。

    一种基于PVFH特征的三维物体位姿估计方法

    公开(公告)号:CN110097598B

    公开(公告)日:2021-09-07

    申请号:CN201910289406.9

    申请日:2019-04-11

    Applicant: 暨南大学

    Abstract: 本发明公开了一种基于PVFH特征的三维物体位姿估计方法,本发明涉及三维点云物体位姿估计方法。本发明提出一种改进的全局特征描述符PVFH,利用该描述符实现三维点云物体位姿估计。在离线阶段从CAD模型渲染得到多个视角的点云,并提取部分点云的PVFH特征建立模型库。在在线识别阶段从场景分割出点云物体,然后提取被识别物体的PVFH特征,与模型库进行特征匹配获得粗匹配的位姿,最后用ICP算法进行优化得到精确的姿态。本发明克服了传统全局特征描述符无法识别旋转对称或镜像对称物体的缺点,鲁棒性高。

Patent Agency Ranking