-
公开(公告)号:CN114820796B
公开(公告)日:2024-11-05
申请号:CN202210530861.5
申请日:2022-05-16
Applicant: 中国科学技术大学
IPC: G06T7/73 , G06V10/80 , G06V10/82 , G06V10/774 , G06T1/00 , G06N3/0464 , G06N3/084 , G06N3/09 , B25J9/16 , B25J15/08
Abstract: 本发明提供了一种基于自监督表示学习的视觉抓取检测方法及系统,方法包括:步骤1:根据获取到的深度图像,得到有标注图像数据集和无标注图像数据集;步骤2:在编码器中通过孪生网络对无标注图像数据集进行训练,并且通过度量学习损失方法提取相似抓取对象之间的共同特征;步骤3:利用有标注图像数据集对解码器进行微调,得到训练模型;步骤4:通过训练模型进行视觉抓取。与现有技术相比,本发明通过各种数据增强技术,借助度量学习损失,提取相似抓取对象之间的共性,提升了模型的泛化能力,利用已标注的数据对解码器进行微调,从抓取质量图和后续抓取规划生成的抓取位姿中推断出最佳抓取候选,从而提升视觉抓取能力。
-
公开(公告)号:CN114820796A
公开(公告)日:2022-07-29
申请号:CN202210530861.5
申请日:2022-05-16
Applicant: 中国科学技术大学
IPC: G06T7/73 , G06V10/80 , G06V10/82 , G06V10/774 , G06T1/00 , G06N3/04 , G06N3/08 , B25J9/16 , B25J15/08
Abstract: 本发明提供了一种基于自监督表示学习的视觉抓取检测方法及系统,方法包括:步骤1:根据获取到的深度图像,得到有标注图像数据集和无标注图像数据集;步骤2:在编码器中通过孪生网络对无标注图像数据集进行训练,并且通过度量学习损失方法提取相似抓取对象之间的共同特征;步骤3:利用有标注图像数据集对解码器进行微调,得到训练模型;步骤4:通过训练模型进行视觉抓取。与现有技术相比,本发明通过各种数据增强技术,借助度量学习损失,提取相似抓取对象之间的共性,提升了模型的泛化能力,利用已标注的数据对解码器进行微调,从抓取质量图和后续抓取规划生成的抓取位姿中推断出最佳抓取候选,从而提升视觉抓取能力。
-
公开(公告)号:CN117506902A
公开(公告)日:2024-02-06
申请号:CN202311517477.2
申请日:2023-11-13
Applicant: 中国科学技术大学
IPC: B25J9/16
Abstract: 本发明涉及机器人视觉抓取技术领域,公开了一种基于深度高分辨率卷积神经网络的机器人抓取方法,用来解决以低分辨率编码输入图像时的空间信息丢失问题,增强其抓取小物体或堆叠物体的能力。同时也能在多种类型的对象下,或对象远离相机时,减少解码器引入的错误。本发明通过使用并行分支和融合不同分辨率之间的信息,而不是单个分支堆叠卷积层,有效地提高了感知任务的性能。该框架在初始阶段为运动规划模块提供精确的信息,提高了轨迹的平滑度,避免了机械臂的奇异性。为机器人感知任务提供了神经网络设计指南,例如高分辨率表示和轻量化设计,这些任务应对不同操作场景中的挑战。也更好地解决初始摄像机与目标之间的远距离问题。
-
公开(公告)号:CN115648202A
公开(公告)日:2023-01-31
申请号:CN202211115440.2
申请日:2022-09-14
Applicant: 中国科学技术大学
IPC: B25J9/16
Abstract: 本发明提供了一种基于时序逻辑的机器人视觉感知和反应规划联合方法及系统,包括:步骤S1:利用视觉感知模块建立相机视角下机器人工作状态环境的LOTS模型;步骤S2:将机器人所需执行的任务编码为可解释的LTL公式,并将LTL公式转换为Büchi自动机;步骤S3:将Büchi自动机与LOTS进行结合,生成具有联合空间状态模型,利用视觉感知可以检查当前任务执行进度,并识别出满足LTL规范的可行路径以及一系列执行动作。步骤S4:根据规划的下一步执行动作,利用视觉感知模块实现动态交互环境下的抓取协同任务。
-
-
-