一种基于数据扩容与相似性度量的残缺点云分类网络

    公开(公告)号:CN113298952A

    公开(公告)日:2021-08-24

    申请号:CN202110652559.2

    申请日:2021-06-11

    Abstract: 本发明属于三维计算机视觉领域,具体涉及到一种基于数据扩容与相似性度量的面向残缺点云分类网络。本发明要解决的问题是如何将将完整的点云分类网络扩展到残缺点云,从而为面向残缺点云的分类问题提供优秀的解决方案。为此本发明在传统的基于点的分类网络的基础上,针对残缺点云提出了一种新的分类网络IPC‑Net,可以基于数据扩容及相似性度量解决残缺点云分类精度低及网络鲁棒性差的问题,此外利用辅助损失函数结合注意力机制帮助解决相关问题。

    一种基于运动方向变化的候选种子的点云单目标跟踪方法

    公开(公告)号:CN113177969A

    公开(公告)日:2021-07-27

    申请号:CN202110471464.0

    申请日:2021-04-29

    Abstract: 本发明公开了一种基于运动方向变化的候选种子的点云单目标跟踪方法,包括训练模块和测试模块,训练模块首先对点云预处理得到模板点云,其次使用高斯采样得到候选点云,再次将模板点云和候选点云输入编码器进行编码,得到对应的特征向量,最后分别计算距离损失函数与方向损失函数并且训练整个模型。测试模块首先使用预先训练的PointRcnn模型进行目标检测,其次进行候选区域采样,再次将采样的候选点云与上一帧跟踪目标点云输入到训练好的模型进行编码,最后对编码后的特征向量使用余弦相似性对比进行目标跟踪。本发明方法能够提高单目标跟踪精度,有效防止错跟踪现象出现。

    一种基于视觉的串联机器人运动学参数标定方法

    公开(公告)号:CN108789404B

    公开(公告)日:2021-06-18

    申请号:CN201810510980.8

    申请日:2018-05-25

    Abstract: 本发明提供一种基于视觉的串联机器人运动学参数标定方法,将相机光轴作为虚拟直线约束,建立基于直线约束的运动学误差模型;在机器人末端固定的标定板上选择一个固定点作为特征点,使用基于图像的视觉控制方法控制机械臂运动,使特征点到达相机的光轴上;根据机器人的关节角数据,使用正运动学计算特征点的名义位置,计算对齐误差矩阵;通过迭代最小二乘算法估计运动学参数误差,根据名义的运动学参数计算实际的运动学参数。本发明利用相机的光轴作为虚拟约束,仅使用机器人的关节角数据即可完成标定,成本低、易操作,不需要昂贵的高精度测量设备,对串联机器人标定具有通用性,可广泛应用于工业、空间、水下环境中提高机械臂的绝对定位精度。

    一种基于数据驱动的船舶能耗预测方法

    公开(公告)号:CN112550592A

    公开(公告)日:2021-03-26

    申请号:CN202011313630.6

    申请日:2020-11-20

    Abstract: 本发明属于船舶能耗预测技术领域,具体涉及一种基于数据驱动的船舶能耗预测方法。本发明包括获取船舶的期望航线、出发时间及海况信息;构建离线基础模型,包括船舶对水稳态航速模型、发动机功率模型和发动机油耗模型;对船舶对水稳态航速模型和发动机功率模型的离散网格矩阵进行高维线性插值;对发动机油耗模型的离散网格矩阵进行一维线性插值;实时推演船舶能耗模型。本发明以一套数据矩阵作为支持,实现船舶长航路的能耗快速计算,该方法中的数据矩阵可通过多种方式获得,并方便快速替换。本发明不影响原有的船舶动力学仿真模型的思路,在实际仿真验证评估系统中与动力学仿真模式并存,各自负责不同类型的仿真计算。

    一种激光雷达三维点云分割方法

    公开(公告)号:CN110969624A

    公开(公告)日:2020-04-07

    申请号:CN201911082345.5

    申请日:2019-11-07

    Abstract: 本发明公开了一种激光雷达三维点云分割方法,首先提取激光雷达采集的原始三维点云数据,然后对原始点云预处理,包括对原始点云数据的去噪、简化以及坐标变换,构建三维笛卡尔坐标系下的基础点云数据,并将三维数据用二维数组形式存储,再采用变邻域分散搜索策略,动态调整区域生长法围绕种子的邻域范围和搜寻匹配范围的分辨率,开展点云初步分割工作,在此基础上设计点云分割包络扩散策略,对点云分割集合的周围进一步搜索,实现多集合的融合,进而得到点云分割的集合,最后设计一种点云分割结果的可视化功能,用于查看点云分割效果。本发明有效提高了分割速率,有效抑制过分割情况,保持各目标的整体性,且便于观察分割目标扫描结果。

    一种动态手势指令识别方法

    公开(公告)号:CN110956099A

    公开(公告)日:2020-04-03

    申请号:CN201911109920.6

    申请日:2019-11-14

    Abstract: 本发明公开了一种动态手势指令识别方法,包括以下步骤:制作5种基础样本类;进行HSV空间肤色分割,得到二值图,并调整大小;进行区域生长选出最大肤色区域;将HOG检测算法提取并保存图片像素梯度归一化后的特征信息作为样本进行训练;基于基础样本类,设计27种动态手势指令;结合CFDP的思想进行手势跟踪,对区域生长后的图像进行计算处理,得到手势质心和边缘;结合静态模型对每组手势指令进行相应的特征提取;每组指令得到一个61维的特征矩阵,经过对特征整合,再次利用SVM分类器进行分类,得出Model_2。本发明在实现了实时高效的手势指令识别的前提下,既结合了新的跟踪算法又避免了采用时间序列算法的繁琐。

    一种基于视觉的串联机器人运动学参数标定方法

    公开(公告)号:CN108789404A

    公开(公告)日:2018-11-13

    申请号:CN201810510980.8

    申请日:2018-05-25

    CPC classification number: B25J9/1697 B25J9/1605

    Abstract: 本发明提供一种基于视觉的串联机器人运动学参数标定方法,将相机光轴作为虚拟直线约束,建立基于直线约束的运动学误差模型;在机器人末端固定的标定板上选择一个固定点作为特征点,使用基于图像的视觉控制方法控制机械臂运动,使特征点到达相机的光轴上;根据机器人的关节角数据,使用正运动学计算特征点的名义位置,计算对齐误差矩阵;通过迭代最小二乘算法估计运动学参数误差,根据名义的运动学参数计算实际的运动学参数。本发明利用相机的光轴作为虚拟约束,仅使用机器人的关节角数据即可完成标定,成本低、易操作,不需要昂贵的高精度测量设备,对串联机器人标定具有通用性,可广泛应用于工业、空间、水下环境中提高机械臂的绝对定位精度。

    一种基于深度学习的服务机器人目标检测与定位方法

    公开(公告)号:CN107239790A

    公开(公告)日:2017-10-10

    申请号:CN201710324898.1

    申请日:2017-05-10

    Abstract: 本发明设计了一种基于深度学习的实时性好、准确率高的服务机器人目标检测与定位方法,包括系统设计、数据集的设计、卷积神经网络的结构设计以及测试方法设计。具体包括:提出了一种基于区域提取网络的算法;提出了一种不需要人工提取特征,完全由深度学习网络模型从底层到高层、自动地提取特征的方法;提出了一种提取到的特征并非特定的某一种而是诸如颜色、形状等特征的组合的方法;提出了一种同时完成目标检测与定位两项任务的方法,该方法节省分步处理产生的时间消耗,极大地提高实时性。本发明实现了服务机器人的目标检测与定位功能,且整个系统占用空间小、可移植性强,可广泛应用于家庭、办公室等多种复杂环境下的目标识别中。

    一种基于直线投影的凸多面体碰撞检测方法

    公开(公告)号:CN104156520B

    公开(公告)日:2017-04-12

    申请号:CN201410373161.5

    申请日:2014-07-31

    Abstract: 本发明涉及一种基于直线投影的凸多面体碰撞检测方法,步骤1:输入两凸多面体顶点集;步骤2:输入两凸多面每个面的顶点索引;步骤3:利用中心线正投影分离检测方法检测两凸多面体是否分离,如果分离,转步骤10,否则,进入步骤4;步骤4:计算两凸多面体的面摩擦值;步骤5:按面摩擦值降序原则构造相向面集合;步骤6:将相向面集中的棱边取出,构造投影分离线簇,投影分离线簇个数为λ,令k=0;步骤7:如果k=λ,则转步骤10,否则令k=k+1,将凸多面体沿第k条棱在坐标平面做投影;步骤8:提取投影边界获得凸多边形;步骤9:判断凸多边形是否相交,如果分离,转步骤10,否则,转步骤7;步骤10:输出分离或碰撞结果。

Patent Agency Ranking