动态环境混合视觉系统的动态物检测和静态地图重建方法

    公开(公告)号:CN112132857B

    公开(公告)日:2023-04-07

    申请号:CN202010991546.3

    申请日:2020-09-18

    Applicant: 福州大学

    Abstract: 本发明提出动态环境混合视觉系统的动态物检测和静态地图重建方法,包括以下步骤;步骤S1:进行外参标定,获取全景相机和三维激光两传感器之间的坐标变换参数;步骤S2:将第t帧点云作为特征点投射到第t帧图像上,获取特征点的像素运动向量,并估算因小车运动而引起的特征点的人工运动向量来进行背景运动补偿,从而获得点云中动态点;步骤S3:对当前帧点云进行簇分割;步骤S4:利用点云数据中每个点索引唯一特性,结合动态点检测结果与分割结果,通过簇中动态点的占比进行判断,提取出动态物体;步骤S5:利用八叉树地图工具和该帧下的激光雷达里程计,对静态地图进行重建;本发明可鲁棒地、更为完整地进行动态物体提取和静态三维地图重建。

    基于通行效率评估的机器人分层式自主探索方法

    公开(公告)号:CN115129057A

    公开(公告)日:2022-09-30

    申请号:CN202210793053.8

    申请日:2022-07-07

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于通行效率评估的机器人分层式自主探索方法,包括以下步骤:步骤S1:获取待规划区域三维点云数据,并将环境区域划分为稀疏区域和稠密区域;步骤S2:基于待规划区域三维点云数据,进行区域通行效率评估;步骤S3:综合评估机器人探索代价和收益,利用稀疏区域点云信息进行自主探索全局规划,生成全局路径;步骤S4:根据机器人实时位置和机器人附近稠密区域的点云信息,进行局部路径规划,生成局部精细路径;步骤S5:连接全局路径和局部路径,生成自主探索有序路径点,并将处理结果存入列表中,以此实现分层式自主探索框架;步骤S6:对机器人探索过程中生成地图进行更新。本发明能够实现移动机器人自主探索未知环境并建立环境地图。

    基于卷积神经网络的全景深度估计方法

    公开(公告)号:CN112750155B

    公开(公告)日:2022-07-01

    申请号:CN202110053166.X

    申请日:2021-01-15

    Applicant: 福州大学

    Abstract: 本发明涉及一种基于卷积神经网络的全景深度估计方法,包括以下步骤:步骤S1:采集室外环境的RGB图像,深度图像,点云数据,并根据柱面投影原理将RGB图像以及深度图像拼接成为全景图像;步骤S2:构建卷积神经网络模型,并基于的得到全景图像训练,得到训练后的卷积神经网络模型;步骤S3:将待测的全景图像输入训练后的卷积神经网络模型,获得密集的全景深度预测图像。本发明能够调整优化全景图像的局部细节,从而估计出密集而且准确的全景深度图像。

    一种单次拍摄的LIDAR与全景相机的外参数标定方法

    公开(公告)号:CN111260735B

    公开(公告)日:2022-07-01

    申请号:CN202010034949.9

    申请日:2020-01-13

    Applicant: 福州大学

    Abstract: 本发明涉及一种单次拍摄的LIDAR与全景相机的外参数标定方法,包括如下内容将LIDAR与全景相机固定在Robotnik移动机器人上。然后将多个棋盘放置于LIDAR与全景相机的共同视场下,一次拍摄收集单帧的全景图像与该帧全景图像对应的点云数据;接着,利用生长的棋盘角点检测算法,检测出全景图像的棋盘角点;对点云数据进行预处理,分割去除点云地面,分割点云平面、提取棋盘点云;基于点云的反射强度,估计出棋盘点云的棋盘角点;最后,通过定义从棋盘左下侧开始的角点共同计数顺序,建立全景图像的棋盘角点与点云的棋盘角点的几何约束方程,求解出外部校准参数。只需要一次拍摄,就能实现LIDAR和全景相机的外参数标定。

    一种基于改进生成对抗网络的交通图像去雾方法

    公开(公告)号:CN112801902A

    公开(公告)日:2021-05-14

    申请号:CN202110129493.9

    申请日:2021-01-29

    Applicant: 福州大学

    Abstract: 本发明提供了一种基于改进生成对抗网络的交通图像去雾方法,包括步骤:建立交通图像去雾数据集;搭建基于混合注意力的生成器网络和多尺度判别器网络,并优化损失函数;使用建立的交通图像去雾数据集训练基于混合注意力的生成器网络和多尺度判别器网络;将需要去雾的图像输入至训练好的生成器网络中,得到去雾后的图像。本发明能够解决在对交通图像进行去雾时出现的颜色失真、细节丢失以及浓雾区域去雾效果不理想问题。

    一种通用无人潜水器及其仿真软件平台

    公开(公告)号:CN112530007A

    公开(公告)日:2021-03-19

    申请号:CN202011541255.0

    申请日:2020-12-23

    Applicant: 福州大学

    Abstract: 本发明涉及一种通用无人潜水器及其仿真软件平台,无人潜水器包括底板,底板上方设有两个密封舱,第一密封舱放置锂电池,第二密封舱放置相机云台与IMU模块、通信控制系统,无人潜水器的前、后、上方各装有两个推进器,底板下方设有DVL和测深声呐传感器,两侧支撑挡板中间设有浮力架及浮力块;仿真软件平台包括:创建无人潜水器三维模型;创建仿真环境的海底三维模型;创建两个可视化窗口,用于实时观察无人潜水器运动状态及其周围水域环境,以及相机云台录像、机器人运动轨迹和测深声呐图像。该无人潜水器设计合理,通用性强,该仿真软件平台可对无人潜水器运动状态进行三维动态仿真,实现轨迹追踪、海底地形测绘和周围场景的实时获取及全程可视化。

    一种单次拍摄的LIDAR与全景相机的外参数标定方法

    公开(公告)号:CN111260735A

    公开(公告)日:2020-06-09

    申请号:CN202010034949.9

    申请日:2020-01-13

    Applicant: 福州大学

    Abstract: 本发明涉及一种单次拍摄的LIDAR与全景相机的外参数标定方法,包括如下内容将LIDAR与全景相机固定在Robotnik移动机器人上。然后将多个棋盘放置于LIDAR与全景相机的共同视场下,一次拍摄收集单帧的全景图像与该帧全景图像对应的点云数据;接着,利用生长的棋盘角点检测算法,检测出全景图像的棋盘角点;对点云数据进行预处理,分割去除点云地面,分割点云平面、提取棋盘点云;基于点云的反射强度,估计出棋盘点云的棋盘角点;最后,通过定义从棋盘左下侧开始的角点共同计数顺序,建立全景图像的棋盘角点与点云的棋盘角点的几何约束方程,求解出外部校准参数。只需要一次拍摄,就能实现LIDAR和全景相机的外参数标定。

    基于深度学习的单目深度估计方法

    公开(公告)号:CN110738697A

    公开(公告)日:2020-01-31

    申请号:CN201910957758.7

    申请日:2019-10-10

    Applicant: 福州大学

    Abstract: 本发明提出一种基于深度学习的单目深度估计方法,包括:基于用于单目深度估计的无监督卷积神经网络结构,包括:编码器、多尺度特征融合模块、门控自适应解码器和细化单元;包括以下步骤:步骤S1:数据集预处理;步骤S2:构造卷积神经网络的损失函数,输入训练集图像,使用反向传播算法计算损失函数损失值,通过反复迭代减小误差进行参数学习,使预测值逼近真实值,以获得卷积神经网络的最佳权重模型;步骤S3:加载步骤S2已训练好的权重模型,将测试集输入用于单目深度估计的无监督卷积神经网络,获得深度预测图像。其解决了离线训练时计算量大和深度重建中细节部分恢复效果差的问题。

    一种改进型动态RRT*的移动机器人运动规划方法

    公开(公告)号:CN110703768A

    公开(公告)日:2020-01-17

    申请号:CN201911086247.9

    申请日:2019-11-08

    Applicant: 福州大学

    Abstract: 本发明涉及一种改进型动态RRT*的移动机器人运动规划方法。该方法剔除了原RRT*算法中所有的碰撞检测,通过在代价函数中增加碰撞风险评估分量的方法控制代价函数值。当采样点或边与障碍物发生碰撞时,该分量将显著增大,促使代价函数值同步显著增大,抑制了发生碰撞的点和边继续扩张的可能性,从而使算法具有避障的能力。因本发明方法没有碰撞检测,在移动机器人运动规划问题上比RRT*算法收敛的速度更快,效率更高,在越复杂的环境中优势越突出。

    无人机快速追踪协同避障方法

    公开(公告)号:CN110244756A

    公开(公告)日:2019-09-17

    申请号:CN201910356849.5

    申请日:2019-04-29

    Applicant: 福州大学

    Abstract: 本发明涉及一种无人机快速追踪协同避障方法,包括如下步骤:1、获取无人机在t时刻的位姿信息,以及具有追踪目标的二维图像信息;2、采用快速追踪算法对相机视野中追踪目标进行快速追踪;3、通过二维激光雷达获取水平面深度信息;4、根据无人机在t时刻位姿预测其在t+1时刻期望位姿,以对目标进行轨迹预测;5、根据障碍物位置计算排斥矢量偏差值,以对障碍物进行初步规避;6、定义一个智能切换信号,基于步骤5得到的结果,优化避障策略,使无人机满足最小避障要求时触发该信号,然后按步骤4和步骤5的方法,在对追踪目标进行快速追踪的同时进行高效避障。该方法可以使无人机在快速跟踪地面目标的同时躲避空中障碍物。

Patent Agency Ranking