-
公开(公告)号:CN114554250B
公开(公告)日:2023-06-27
申请号:CN202210047578.7
申请日:2022-01-17
Applicant: 北京理工大学重庆创新中心
IPC: H04N21/236 , H04N21/258 , H04N21/43 , H04N21/45 , H04N21/8547
Abstract: 本发明涉及同步技术领域,特别涉及一种无人机或无人车的视频和位置同步方法;所述方法包括以下步骤:安装在无人机/无人车上的同步软件通过抓取视频数据包,计算并获得视频开始时间,随后将视频开始时间推送给服务器上的同步软件,服务器上的同步软件接收心跳数据和视频开始时间,处理并获得和视频同步的心跳数据,随后推送给原处理系统进行处理。本发明通过在不增加硬件的情况下,只需在无人机/无人车和服务器上各安装一个同步软件,同时并未对无人机/无人车和服务器已有的原处理系统进行修改,即可实现无人机/无人车的位置和视频的同步,拓宽了无人机/无人车的应用场景。
-
公开(公告)号:CN116027779A
公开(公告)日:2023-04-28
申请号:CN202211590977.4
申请日:2022-12-12
Applicant: 北京理工大学重庆创新中心
IPC: G05D1/02
Abstract: 本发明提供了一种无人车的大场景快速探索方法,包括:S1、获取目标场景的相关信息,确定无人车的探索范围;S2、将所述探索区域划分出一系列的子区域,并采用TSP动态规划法在所述子区域规划出引导路径;S3、针对一系列的所述子区域设置探索完成度,无人车按照引导路径对子区域进行逐步探索直至探索完成。本发明在传统RRT探索基础上增加全局引导路径。该引导路径给无人车提供一个探索的大致方向线路,以提高探索的方向性、目的性;(根据探索范围)将探索区域分割成多块子区域,根据子区域规划出引导路径,无人车沿引导路径对各子区域进行探索。可根据不同任务需求,设置不同目标值,以平衡探索时间和探索完成度。
-
公开(公告)号:CN114646937A
公开(公告)日:2022-06-21
申请号:CN202210338417.3
申请日:2022-04-01
Applicant: 北京理工大学重庆创新中心
Abstract: 本发明公开了一种SLAM与UWB的实时融合与建图方法,包括:步骤1、在携带激光雷达的智能体的移动过程中,根据分布式算法,得到当前时刻智能体与各超宽带节点的定位信息;步骤2、基于扩展卡尔曼滤波算法,对当前时刻的定位信息进行修正;步骤3、基于高斯‑牛顿方法求取当前时刻智能体的最优位姿,采用最优位姿矫正智能体当前时刻的位姿估计以及各超宽带节点的位置,同时更新激光雷达地图以及UWB地图;将步骤3输出的当前时刻的智能体的位姿估计以及各超宽带节点的位置作为步骤2的输入。本发明将LiDAR传感器与UWB传感器融合在一起,融合UWB和LiDAR以提高基于UWB的定位和映射的准确性和鲁棒性,并提供超宽带节点坐标以及周围环境的详细地图信息。
-
公开(公告)号:CN114339595A
公开(公告)日:2022-04-12
申请号:CN202111603612.6
申请日:2021-12-24
Applicant: 北京理工大学重庆创新中心
Abstract: 本发明公开了一种基于多模型预测的超宽带动态反演定位方法,该方法包括:获取主智能体的运动信息和测距信息以及子智能体的测距信息;基于主智能体的运动信息和测距信息以及子智能体的测距信息,利用基于无迹卡尔曼滤波的交互式多模型预测算法对动态的子智能体进行运动模型预测以及动态反演定位。本发明在已知携带超宽带标签的智能体位置以及运动信息时,可以基于超宽带测距信息利用基于无迹卡尔曼滤波的交互式多模型算法对未知空间内动态超宽带锚点(即子智能体)进行运动模型预测并进行反演定位推算。根据未知动态锚点的反演推算结果构建相对定位网络,实现多智能体协同定位。
-
公开(公告)号:CN114287914A
公开(公告)日:2022-04-08
申请号:CN202111675373.5
申请日:2021-12-31
Applicant: 北京理工大学重庆创新中心
Abstract: 本发明公开了一种运动检测和数据分析的智能鞋垫系统,该系统包括:设置在鞋垫编制层和鞋垫底层之间的薄膜压力传感器层上的传感器模组,设置在鞋垫底层的MCU控制模块、通信模块、电源管理模块、心电监测模块;所述传感器模组用于检测使用者脚掌各部分的受力情况和运动状态;所述心电监测模块用于监测使用者的心电数据,并将监测到的心电数据传输至所述MCU控制模块;所述MCU控制模块用于将接收到的使用者脚掌各部分的受力情况、运动状态和心电数据通过所述通信模块发送到数据库,所述数据库将接收到的信息发送到手机APP;所述电源管理模块用于为所述系统供电。本发明能够实现实时反馈,保证运动者在运动过程中能实时监测自身的运动状态。
-
公开(公告)号:CN114266976A
公开(公告)日:2022-04-01
申请号:CN202111601710.6
申请日:2021-12-24
Applicant: 北京理工大学重庆创新中心
Abstract: 本发明公开了一种多无人机巡线的网络图划分方法及系统,所述方法包括:生成无人机巡视的任务网络图;通过第一算法对所述任务网络图进行划分,得到第一划分集合;通过第二算法对所述第一划分集合进行筛选,得到可行解集;对所述可行解集进行计算,得到所述无人机巡线的网络图划分方案。本发明采用基本割集原理进行网络图的划分,实用性强,生成的划分方案质量高。
-
公开(公告)号:CN112270103A
公开(公告)日:2021-01-26
申请号:CN202011236015.X
申请日:2020-11-09
Applicant: 北京理工大学重庆创新中心
IPC: G06F30/20 , G06F111/04 , G06F119/14 , G06F119/10
Abstract: 本发明公开了一种基于多智能体博弈的协同策略反演辨识方法,针对多方玩家参与的多智能体闭环动态博弈决策模型,各方玩家通过雷达侦查和监视多无人机博弈系统,采集系统产生的混合信号并对信号进行分离,根据获得的系统状态信息和各个智能体的控制输入信息进行反演建模,辨识出博弈中各个智能体的协同博弈策略表征矩阵,本发明通过求解多方玩家参与的多智能体闭环动态博弈的逆问题来获取多智能体的协同博弈策略,将复杂的非线性约束双层优化问题等价转化为易于计算的二次型规划问题的算法,实现了在无噪声条件下具有较高的辨识精度,在有噪声干扰条件下具有一定的鲁棒性。
-
公开(公告)号:CN111541988A
公开(公告)日:2020-08-14
申请号:CN202010304504.8
申请日:2020-04-17
Applicant: 北京理工大学重庆创新中心
Abstract: 本发明公开了一种基于重心坐标结合Taylor展开的三维室内定位方法,属于室内定位的技术领域,具体步骤为:(1)待测标签T在空间中与锚点O、A、B、C构成四个四面体,分别计算出体积VT-ABC、VT-OBC、VT-OAC、VT-OAB和体积VO-ABC;(2)利用体积比计算重心坐标{aTO,aTA,aTB,aTC};(3)确定重心坐标{aTO,aTA,aTB,aTC}的符号模式;(4)利用四面体顶点的加权求解初始坐标T1;(5)利用初始坐标T1作为Taylor展开的初始值 判断是否满足条件|Δx|+|Δy|+|Δz|≤∈;(6)取待测标签T的坐标为:旨在通过利用四面体重心坐标表示其所在空间内任意点的特性,计算出标签的初始定位值,并通过Taylor展开提高室内三维定位精度。
-
-
公开(公告)号:CN214136059U
公开(公告)日:2021-09-07
申请号:CN202023074355.5
申请日:2020-12-18
Applicant: 北京理工大学重庆创新中心
Abstract: 本实用新型提供一种基于视觉标志的多车协同抓取系统,包括多辆无人车、远程终端和目标物体,每辆无人车上安装有激光雷达、机械臂和摄像头,无人车内设有树莓派、主控制器板、IMU惯性导航模块、里程计模块和电源模块,目标物体上设置有目标标签,远程终端通过安全协议与树莓派进行远程连接,树莓派分别与主控制器板和摄像头相连,主控器板分别与机械臂、激光雷达和电源模块相连。本方案通过将机械臂安装于无人车上,使得抓取更为灵活,通过在目标物体上设置多个目标标签,便于无人车的识别,无人车的抓取行动由远程终端控制,从而让多个无人车更简单快速地进行抓取工作。
-
-
-
-
-
-
-
-
-