实时SuperPoint特征提取与描述方法及装置

    公开(公告)号:CN119919677A

    公开(公告)日:2025-05-02

    申请号:CN202411933696.3

    申请日:2024-12-26

    Abstract: 本发明涉及一种实时SuperPoint网络特征提取与描述方法及装置。其中方法包括:利用SuperPoint卷积神经网络模块对输入图像进行特征提取,并生成用于进行特征点提取的第一特征张量,以及用于进行描述子计算的第二特征张量;构建特征点提取模块基于所述第一特征张量提取特征点坐标,并实时输出所述特征点坐标和扫描坐标;构建描述子计算模块实时获取所述特征点坐标、所述扫描坐标,并根据所述特征点坐标和所述扫描坐标从所述第二特征张量中选择对应位置的张量数据进行描述子计算。本发明能够实现特征点提取和描述子计算的并行处理,提高了SuperPoint网络特征提取与描述的实时性。

    一种基于多相机装置的动态目标检测方法及系统

    公开(公告)号:CN119850913A

    公开(公告)日:2025-04-18

    申请号:CN202411914225.8

    申请日:2024-12-24

    Abstract: 本发明涉及一种基于多相机装置的动态目标检测方法及系统。其中,动态目标检测方法应用于包括彩色相机、微光相机、红外相机、以及事件相机的多相机装置,包括以下步骤:获取设定时刻彩色相机、微光相机、以及红外相机拍摄的图像并分别进行目标检测,获得彩色相机发现的目标TC、微光相机发现的目标TL、以及红外相机发现的目标TI;获取所述设定时刻事件相机发现的视野范围内的动态事件图TE;基于目标TC、目标TL、以及目标TI与动态事件图TE的轮廓重合度确定是否发现动态目标。本发明能够适用于各种光照环境并排除背景对检测算法的影响,提高算法对虚假目标识别的鲁棒程度。

    一种面向多机器人协同的未知场景探索方法

    公开(公告)号:CN119739200A

    公开(公告)日:2025-04-01

    申请号:CN202411885489.5

    申请日:2024-12-20

    Abstract: 本发明涉及一种面向多机器人协同的未知场景探索方法,具体包括局部探索阶段和全局探索阶段,在局部探索阶段中,各机器人在局部探索区域内进行探索,各机器人生成语义‑前沿视点,并针对所述语义‑前沿视点通过求解旅行商问题生成局部路径;在全局探索阶段,通过构建动态的拓扑图,将所述语义‑前沿视点存储至所述拓扑图的叶节点,并共享给全部的机器人,各机器人在离开所述局部探索区域时,考虑所述拓扑图内的叶节点,通过求解多旅行商问题生成全局路径,协调各机器人就近进入新的局部探索区域,实现多机器人协同探索。本发明能够实现高效的多机器人协同探索。

    一种任务驱动的无人机自主搜索方法

    公开(公告)号:CN119665954A

    公开(公告)日:2025-03-21

    申请号:CN202411722566.5

    申请日:2024-11-28

    Abstract: 本发明涉及一种任务驱动的无人机自主搜索方法,方法包括:利用无人机获取到的双目RGB图和IMU数据获取无人机里程计;利用无人机获取到的深度图和无人机里程计得到世界坐标系下的三维点云数据,并通过体素化处理建立概率体素地图;使用目标检测网络对双目RGB图进行目标检测,并获取目标位姿;利用检测置信度超过置信度上限的目标与概率体素地图完成任务场景地图的建立和更新;建立空间边界和潜在目标边界;利用空间边界和潜在目标边界建立无人机的搜索策略,并确定搜索视点;利用无人机里程计和搜索视点进行无人机的自主安全导航。本发明解决在通信拒止、陌生未知的场景下完备地探索任务空间同时高精度检测任务目标的难题。

    双目相机自标定方法及系统

    公开(公告)号:CN111862234B

    公开(公告)日:2023-10-20

    申请号:CN202010711704.5

    申请日:2020-07-22

    Abstract: 本发明提供一种双目相机自标定方法及系统,包括:1)获取左右原始图像;2)校正左右原始图像;3)从左右校正图像中提取特征点并匹配;4)统计左右图像纵坐标偏差的平均值,若大于对应阈值则修正估计第一参数组,反复迭代修正,直至小于对应阈值;5)找到静态物体;6)处于移动状态时,追踪静态物体的视差及车轮运动信息;7)得到车轮运动距离与静态物体的三维距离变化值的距离偏差,若大于对应阈值则修正估计第二参数组,反复迭代校正,直至小于对应阈值,完成自标定。本发明利用实时图像追踪和车体运动信息,对内外参进行优化标定,完成图像校正工作,为车体提供准确的三维识别数据。

    一种基于双目视觉系统的受电弓燃弧检测方法和装置

    公开(公告)号:CN116433639A

    公开(公告)日:2023-07-14

    申请号:CN202310419749.9

    申请日:2023-04-19

    Abstract: 本发明涉及一种基于双目视觉系统的受电弓燃弧检测方法和装置,其中,方法包括:采用双目相机对受电弓进行拍摄,获取双目图像,所述双目图像中包括受电弓与接触网;将所述双目图像送入第一yolov5目标检测模型中进行目标检测,得到受电弓与接触网的接触区域,以及受电弓与接触网的接触点;将所述双目图像送入第二yolov5目标检测模型中进行目标检测,检测出双目图像中的燃弧火花;对检测出双目图像中的燃弧火花进行三维重建,得到燃弧火花在空间的三维坐标;基于所述燃弧火花在空间的三维坐标计算所述燃弧火花和所述受电弓与接触网的接触点的距离,并根据距离滤除错误结果。本发明可以实现实时高精度的燃弧检测。

    一种移动机器人视听觉融合感知与导航方法

    公开(公告)号:CN116380061A

    公开(公告)日:2023-07-04

    申请号:CN202211614647.4

    申请日:2022-12-15

    Abstract: 本发明涉及一种移动机器人视听觉融合感知与导航方法,包括以下步骤:对移动机器人的视觉传感器系统与听觉传感器系统进行参数标定;利用视觉传感器系统和标定的参数构建导航栅格地图;使用视觉传感器系统获取交互对象的视频序列,并基于三维卷积和长短期记忆网络的手势识别方法,利用注意力机制和多尺度特征融合,实现以所述视频序列为输入的端到端手势行为识别;从所述视频序列中提取出感兴趣的目标对象并进行跟踪,并利用听觉传感器系统和视觉传感器系统得到具有显著性的目标对象的序列。本发明能够以更加智能和自然的方式与机器人导航系统进行交互。

    一种基于线结构光的无公共视场的多相机标定方法

    公开(公告)号:CN116342717A

    公开(公告)日:2023-06-27

    申请号:CN202310419747.X

    申请日:2023-04-19

    Abstract: 本发明涉及一种基于线结构光的无公共视场的多相机标定方法,包括:利用空间中至少3个不同方向的平面标定装置来标定每个相机的内部参数;调整激光平面,使空间标定装置在相邻两台相机的有效成像区域内接到清晰的激光线条,其中,每台相机的成像次数不少于两组;在拍到的激光线条图像中,提取激光线条的能量中心坐标,利用每台相机不少于两条激光直线在各自的相机坐标系内计算拟合平面;重复上述步骤,得到多组拟合平面参数;根据得到的多组拟合平面参数,利用平面共面约束,求解相机之间的初始相对位置关系,并通过LM优化算法提高标定精度。本发明能够用较低的成本、在更多的场景中提供高精度的标定结果。

    一种实时图像序列的几何校正装置

    公开(公告)号:CN115631086A

    公开(公告)日:2023-01-20

    申请号:CN202211307322.1

    申请日:2022-10-25

    Abstract: 本发明涉及一种实时图像序列的几何校正装置,其中,流水线实时计算模块用于根据标定的相机参数实时计算输出图像像素点的位置坐标相对于输入图像像素点的位置坐标;输入缓存单元用于缓存输入图像数据;输入缓存管理模块用于根据输入图像像素点的位置坐标的整数部分管理输入缓存单元中的输入图像数据;插值计算模块用于将输入图像像素点的位置坐标的小数部分作为插值计算的权重,对输入图像数据进行插值计算,得到校正图像值;校正系统控制模块用于启动流水线实时计算模块和控制输入缓存管理模块的数据处理,以完成从输入畸变图到输出校正图的时序控制。本发明能够以较少的嵌入式硬件资源实现高实时性图像序列的校正。

Patent Agency Ranking