一种支持多机器人最小时间任务分配的分布式方法

    公开(公告)号:CN117369437B

    公开(公告)日:2024-08-09

    申请号:CN202311251209.0

    申请日:2023-09-26

    Applicant: 重庆大学

    Abstract: 本发明公开了一种支持多机器人最小时间任务分配的分布式方法,包括以下步骤:步骤1:初始化数据。步骤2:所有机器人寻找各自到所有目标点中的最小时间。步骤3:寻找全部最小时间中的最大时间,同时取代矩阵C*中的元素。步骤4:对矩阵C*进行试分配。步骤5:取代矩阵C中的元素。步骤6:与步骤2一致,再找出所有机器人到所有目标点中的最小时间。步骤7:寻找所有最小时间中的最小时间,替代矩阵C*元素。步骤8:再次对矩阵C*进行试分配。本发明试分配过程中采用CBAA,在多机器人任务分配时间最小的前提下,CBAA使机器人总的任务分配时间最大,一定程度上减小了机器人的运行速度,降低了机器人能源消耗。

    一种基于实例分割网络的室内动态环境下RGB-D的SLAM方法

    公开(公告)号:CN118089729A

    公开(公告)日:2024-05-28

    申请号:CN202410210513.9

    申请日:2024-02-26

    Applicant: 重庆大学

    Abstract: 本发明公开了一种基于实例分割网络的室内动态环境下RGB‑D的SLAM方法,在采集到RGB图像的同时使用SOLOv2算法对其进行处理;结合先验语义,将掩码图中的动态物体覆盖上掩码;使用图像处理方法对动态物体进行形态学膨胀;将RGB图像、深度图像和掩码图像输入SLAM系统,构建图像金字塔;使用FAST算法在图像中检测关键点;使用BRIEF算法计算其对应的ORB描述子;对形态学膨胀后的动态物体提取特征点;结合深度图对伪动态特征点的深度值进行聚类并分为动态特征点和静态特征点;剔除聚类后得到的动态特征点;将所有的静态特征点输入追踪线程,并进行后续的局部建图线程及局部回环检测线程。本发明避免对位于动态物体和静态背景交界处特征点的误判,提高SLAM系统的鲁棒性。

    一种机器人自主定位方法

    公开(公告)号:CN112884838A

    公开(公告)日:2021-06-01

    申请号:CN202110282300.3

    申请日:2021-03-16

    Applicant: 重庆大学

    Abstract: 本发明机器人自主定位方法,其包括步骤:1)机器人通过相机采集当前所处环境图像;2)将相机采集的当前帧图像和选取的作为定位基准的参考图像转换到HSI色彩空间下;3)在参考图像中提取真实环境空间中的点Pj在参考图像中的投影点4)计算点Pj在当前帧图像的投影点5)计算投影点与投影点的投影误差为rj;6)通过最小化目标函数E(ξ),不断迭代求解,得到相机位姿最优解。本发明机器人自主定位方法,通过精度更高的图像配准结果,利用了更多的图像信息和约束关系,能够提升机器人的位姿估计的精度,即提高机器人自主定位的精度。

    一种基于视觉定位验证平台的多智能体有限时间编队控制方法

    公开(公告)号:CN117193363A

    公开(公告)日:2023-12-08

    申请号:CN202311251324.8

    申请日:2023-09-26

    Applicant: 重庆大学

    Abstract: 本发明公开了一种基于视觉定位验证平台的多智能体有限时间编队控制方法,使用单目相机以太网通讯,将图像信息传输给Ubuntu中枢器;利用Ubuntu中枢器含有的算法工具包进行识别tag36h11二维码;进行WIFI网络配置,对Ubuntu中枢器和每个Turtlebot3‑Burger机器人配置不同的子网环境,确保在平台场地范围内Ubuntu中枢器和Turtlebot3‑Burger机器人能够完成信息交互完成协同控制;通过Ubuntu中枢器远程启动每一辆机器人,并可以接收每一辆机器人发布的ROS话题信息,确保Ubuntu中枢器可以通过ROS话题控制机器人;实现所提出的具有饱和输入的多智能体有限时间编队控制。本发明考虑实际环境中多智能体存在饱和输入的情况,提高收敛速度,利用有限时间稳定性理论和齐次理论,保证多智能体系统在有限时间内完成编队任务。

    一种基于局部AOA和距离的无线传感器网络协同定位方法

    公开(公告)号:CN118870514A

    公开(公告)日:2024-10-29

    申请号:CN202410953811.7

    申请日:2024-07-16

    Applicant: 重庆大学

    Abstract: 本发明公开了一种基于局部AOA和距离的无线传感器网络协同定位方法,首先获得AOA测量和距离测量;然后通过通信将测量值发送到中央处理单元,以夹角和距离作为约束,把定位问题建模成SDP,通过松弛方法将问题转化为一个凸问题;最后,求解凸问题,得到未知节点位置的估计值;与现有技术相比,本发明不需要全局坐标系信息,网络布置简单,在资源有限、能量有限的传感器网络中,仍能得到较为准确的位置估计值。本发明综合了距离和角度信息,提供了数据冗余,更加安全可靠,定位精度更高,同时网络可定位的条件进一步减弱;与传统基于单一测度定位方法相比,本发明在更弱的网络条件下实现定位,此外混合测量提供了数据冗余,使得定位结果更加可靠。

    一种山地道路边线位置检测方法

    公开(公告)号:CN113392704B

    公开(公告)日:2022-06-10

    申请号:CN202110518920.2

    申请日:2021-05-12

    Applicant: 重庆大学

    Abstract: 本发明属于人工智能技术领域,主要涉及一种山地道路边线位置检测方法,包括如下步骤:A1、将待检测图像转换为HSV图像以及灰度图像,作为网络输入;A2、并行提取HSV图像、灰度图像各自的图像特征,再从边缘提取子网络嵌入图像边缘特征,通过融合得到全局混合特征;A3、将提取出的全局混合特征,输入分类预测网络模块,得到道路边线位置检测结果,作为网络输出。本发明方法可实现山地场景下的高精度、实时的道路边线检测性能,并且计算量较小可运行于移动终端、计算机终端或者类似的运算装置上,有效提升车道检测的实时性和实用性。

    一种机器人自主定位方法

    公开(公告)号:CN112884838B

    公开(公告)日:2022-11-15

    申请号:CN202110282300.3

    申请日:2021-03-16

    Applicant: 重庆大学

    Abstract: 本发明机器人自主定位方法,其包括步骤:1)机器人通过相机采集当前所处环境图像;2)将相机采集的当前帧图像和选取的作为定位基准的参考图像转换到HSI色彩空间下;3)在参考图像中提取真实环境空间中的点Pj在参考图像中的投影点4)计算点Pj在当前帧图像的投影点5)计算投影点与投影点的投影误差为rj;6)通过最小化目标函数E(ξ),不断迭代求解,得到相机位姿最优解。本发明机器人自主定位方法,通过精度更高的图像配准结果,利用了更多的图像信息和约束关系,能够提升机器人的位姿估计的精度,即提高机器人自主定位的精度。

    一种山地道路边线位置检测方法

    公开(公告)号:CN113392704A

    公开(公告)日:2021-09-14

    申请号:CN202110518920.2

    申请日:2021-05-12

    Applicant: 重庆大学

    Abstract: 本发明属于人工智能技术领域,主要涉及一种山地道路边线位置检测方法,包括如下步骤:A1、将待检测图像转换为HSV图像以及灰度图像,作为网络输入;A2、并行提取HSV图像、灰度图像各自的图像特征,再从边缘提取子网络嵌入图像边缘特征,通过融合得到全局混合特征;A3、将提取出的全局混合特征,输入分类预测网络模块,得到道路边线位置检测结果,作为网络输出。本发明方法可实现山地场景下的高精度、实时的道路边线检测性能,并且计算量较小可运行于移动终端、计算机终端或者类似的运算装置上,有效提升车道检测的实时性和实用性。

    一种湖面垃圾清理遥控船控制系统

    公开(公告)号:CN110893896A

    公开(公告)日:2020-03-20

    申请号:CN201911173968.3

    申请日:2019-11-26

    Applicant: 重庆大学

    Abstract: 本发明公开了一种湖面垃圾清理遥控船控制系统,其包括遥控器系统和船体控制系统;遥控器系统包括遥控器主体、遥控端单片机、数据采集单元和无线电数据通讯模块;遥控器主体包括动力摇杆、方向摇杆、以及遥控机械臂;船体控制系统包括船体端单片机、无线电数据接收模块、打捞机械臂关节轴驱动电机的驱动电路、船体动力电机的驱动电路、以及船体转向舵机的驱动电路。本发明利用与打捞机械臂结构相同但尺寸比例缩小的遥控机械臂来控制打捞机械臂的动作,实现了人在岸上操控遥控船在湖面上进行垃圾打捞,相对于现有人工打捞,劳动强度大大降低,安全性更高;且避免了大型打捞设备不适于小面积水面、大型设备运行成本高等缺点。

    一种基于视觉定位验证平台的多智能体有限时间编队控制方法

    公开(公告)号:CN117193363B

    公开(公告)日:2024-08-20

    申请号:CN202311251324.8

    申请日:2023-09-26

    Applicant: 重庆大学

    Abstract: 本发明公开了一种基于视觉定位验证平台的多智能体有限时间编队控制方法,使用单目相机以太网通讯,将图像信息传输给Ubuntu中枢器;利用Ubuntu中枢器含有的算法工具包进行识别tag36h11二维码;进行WIFI网络配置,对Ubuntu中枢器和每个Turtlebot3‑Burger机器人配置不同的子网环境,确保在平台场地范围内Ubuntu中枢器和Turtlebot3‑Burger机器人能够完成信息交互完成协同控制;通过Ubuntu中枢器远程启动每一辆机器人,并可以接收每一辆机器人发布的ROS话题信息,确保Ubuntu中枢器可以通过ROS话题控制机器人;实现所提出的具有饱和输入的多智能体有限时间编队控制。本发明考虑实际环境中多智能体存在饱和输入的情况,提高收敛速度,利用有限时间稳定性理论和齐次理论,保证多智能体系统在有限时间内完成编队任务。

Patent Agency Ranking