-
公开(公告)号:CN119808963A
公开(公告)日:2025-04-11
申请号:CN202510286364.9
申请日:2025-03-12
Applicant: 湖南大学
Abstract: 本发明公开了一种融合SD地图的地图拓扑关系推理方法,属于三维重建技术领域。该方法包括以下步骤:获取SD地图并进行矢量化处理,得到SD地图折线序列;对SD地图折线序列进行编码得到SD地图特征;利用SD地图位置编码对3D车道坐标进行调整得到车道位置嵌入;融合SD地图特征与3D车道特征进行车道间拓扑关系推理。本发明通过将3D车道坐标与SD地图位置编码相结合,生成了车道位置嵌入,这一过程利用SD地图辅助拓扑关系的初始化,并在拓扑推理阶段,有效地融入了SD地图提供的车道几何信息;该方法不仅考虑了车道固有的几何特征,还显著减少了车道检测中固有的端点移位对拓扑关系的影响。
-
公开(公告)号:CN119380029A
公开(公告)日:2025-01-28
申请号:CN202411943039.7
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06V10/26 , G06V10/774 , G06V10/82 , G06N3/084
Abstract: 本发明公开了一种伪标签生成及无源域场景自适应的遮挡感知无缝分割方法及系统,该方法通过为常规使用的实例级伪标签通过阈值筛选和数据量的对比,进一步提升伪标签的标记精度;同时利用生成的伪标签,并设计一种针对遮挡感知无缝分割任务中实例级预测分支的不确定区域引导的加权损失,提升分割模型的准确度;再结合对低质量伪标签的筛选,提出一种非模态引导的实例混合策略,从而进一步的增加可供训练的样本数量;从而提高由于个别类别样本数量少导致的最终训练的模型分割效果差的问题,最终提高无源域场景自适应效果。
-
公开(公告)号:CN119850864A
公开(公告)日:2025-04-18
申请号:CN202510323125.6
申请日:2025-03-19
Applicant: 湖南大学
Abstract: 本发明提供一种全景街景图像生成方法及系统,属于图像数据处理技术领域。本发明直接生成完整的具有真实畸变的全景图像,不需要通过多视角图像拼接的方式,能够在保留精确几何控制的基础上,生成具有全局亮度一致性和无缝衔接的并且带有真实畸变的高保真全景街景图像,并且提升了图像的真实性和一致性,减少了多视角生成的复杂度,显著提高了在自动驾驶场景中的适用性和实时性。通过引入多尺度几何控制及条件编码,结合预训练扩散模型,从道路BEV地图、3D目标框、相机姿态、文本描述等多条件输入生成具有真实畸变的全景街景图像,在生成过程中能够精确控制道路高程、目标物体高度等几何细节,显著提升了3D感知任务的训练效果。
-
公开(公告)号:CN119380029B
公开(公告)日:2025-03-11
申请号:CN202411943039.7
申请日:2024-12-27
Applicant: 湖南大学
IPC: G06V10/26 , G06V10/774 , G06V10/82 , G06N3/084
Abstract: 本发明公开了一种伪标签生成及无源域场景自适应的遮挡感知无缝分割方法及系统,该方法通过为常规使用的实例级伪标签通过阈值筛选和数据量的对比,进一步提升伪标签的标记精度;同时利用生成的伪标签,并设计一种针对遮挡感知无缝分割任务中实例级预测分支的不确定区域引导的加权损失,提升分割模型的准确度;再结合对低质量伪标签的筛选,提出一种非模态引导的实例混合策略,从而进一步的增加可供训练的样本数量;从而提高由于个别类别样本数量少导致的最终训练的模型分割效果差的问题,最终提高无源域场景自适应效果。
-
公开(公告)号:CN118552737B
公开(公告)日:2024-11-19
申请号:CN202411008638.X
申请日:2024-07-26
Applicant: 湖南大学
IPC: G06V10/26 , G06N3/0455 , G06N3/0464 , G06V10/52 , G06V10/80 , G06V10/82
Abstract: 本申请提供一种光场相机语义分割方法、系统及电子设备,属于光场图像处理技术领域。本申请直接对光场相机采集的未对焦原始图像进行特征预编码,生成中心图像及所述中心图像所对应子孔径图像的浅层空间信息嵌入;对来自不同子孔径的特征嵌入进行筛选,生成细粒级的角度信息嵌入和空间信息嵌入;对空间信息嵌入和角度信息嵌入进行深度编码与选择性矫正与补充;最后对富含纹理与角度的信息进行压缩融合,并送入特征编码器生成语义预测结果。本申请可以解决现有光场相机语义分割中存在的网络冗余多、计算复杂度大的问题,实现了高效率、高准确率的光场相机语义分割。
-
公开(公告)号:CN118887392A
公开(公告)日:2024-11-01
申请号:CN202411058940.6
申请日:2024-08-02
Applicant: 湖南大学
IPC: G06V10/25 , G06V20/58 , G06V10/80 , G06V10/82 , G06N3/0464 , G06V10/766 , G06V10/764 , G06N3/048 , G06V10/40 , G06V10/774
Abstract: 本发明提供了一种自动驾驶场景下的跨模态特征级融合目标检测方法及系统,所述方案基于提出的双流动态卷积融合模块,进行不同模态图像特征的融合,最大限度地保留了不同模态输入数据中的独特特征,使内核能够专注于特定于模态的特征,同时,基于双流动态卷积融合模块,结合YOLOv5的主干网络,提出一种跨模态特征级融合目标检测模型,有效提高了目标检测的精度;所述双流动态卷积融合模块中通过引入视差注意掩码,使得卷积核对模态间差异更加敏感,允许它们选择性地提取不同的特征进行互补融合;其次,本发明还提供了一种核信息散度损失,通过充分利用模态之间的差异性特征来指导单模态特征学习。
-
公开(公告)号:CN118552737A
公开(公告)日:2024-08-27
申请号:CN202411008638.X
申请日:2024-07-26
Applicant: 湖南大学
IPC: G06V10/26 , G06N3/0455 , G06N3/0464 , G06V10/52 , G06V10/80 , G06V10/82
Abstract: 本申请提供一种光场相机语义分割方法、系统及电子设备,属于光场图像处理技术领域。本申请直接对光场相机采集的未对焦原始图像进行特征预编码,生成中心图像及所述中心图像所对应子孔径图像的浅层空间信息嵌入;对来自不同子孔径的特征嵌入进行筛选,生成细粒级的角度信息嵌入和空间信息嵌入;对空间信息嵌入和角度信息嵌入进行深度编码与选择性矫正与补充;最后对富含纹理与角度的信息进行压缩融合,并送入特征编码器生成语义预测结果。本申请可以解决现有光场相机语义分割中存在的网络冗余多、计算复杂度大的问题,实现了高效率、高准确率的光场相机语义分割。
-
公开(公告)号:CN119832166A
公开(公告)日:2025-04-15
申请号:CN202510305523.5
申请日:2025-03-14
Applicant: 湖南大学
Abstract: 本发明公开了一种基于3DGS的全景重建方法、电子设备及存储介质,属于三维重建技术领域。该方法包括以下步骤:采集包含待重建场景的原始图像,通过全景SfM方法处理得到初始化点云;利用初始化点云初始化一组3D高斯;通过MLP预测旋转、放缩和位置的变化量,并对高斯进行更新;根据更新后的高斯按全景投影模型进行投影,并使用MLP弥补非线性误差;判断误差小于阈值,或者迭代次数到上限;使用高斯进行投影和渲染,得到清晰的去模糊图像,完成全景重建。发明可以使得在重建场景时仅需要使用全景相机采集少量数据即可完成数据采集工作,并且对采集质量要求不高,相较于使用原始3DGS较大减缓了对精确数据集的依赖。
-
公开(公告)号:CN119810338A
公开(公告)日:2025-04-11
申请号:CN202510291639.8
申请日:2025-03-12
Applicant: 湖南大学
Abstract: 本发明公开了一种全景动态场景NeRF重建与渲染方法,属于全景NeRF重建技术领域。该方法包括以下步骤:获取全景视角下包含场景中全方位视角信息的多帧全景图像;对每一帧全景图像进行预处理;预处理后,将全景图像包含的场景分解为静态部分和动态部分;对静态部分和动态部分分别建模,得到静态场和动态场;将静态场和动态场叠加求和,再进行渲染,得到神经辐射场;基于神经辐射场进行全景场景渲染与新视角合成,完成全景动态场景重建与渲染。发明通过全景和动静分离NeRF技术的结合,显著提高了360°全景视频在动态场景下的重建和渲染能力,为各类虚拟、安防、交通和媒体应用场景带来高质量的动态表现力。
-
公开(公告)号:CN119811130A
公开(公告)日:2025-04-11
申请号:CN202510287278.X
申请日:2025-03-12
Applicant: 湖南大学
IPC: G08G1/14 , G08G1/017 , G06V20/58 , G06N3/0455 , G06N3/0464 , G06V10/40 , G06V10/764 , G06V10/82 , G06V20/64
Abstract: 本发明公开了一种用于停车场车位占据检测的3D语义占据预测方法,属于车辆停车检测技术领域。该方法包括以下步骤:通过停车场内的摄像头采集停车场场景的图像数据;从采集的图像数据中提取图像特征,并预测图像中每个像素点的深度信息;根据提取的图像特征和预测的深度信息重建停车场场景的3D占据栅格;在深度引导下的3D占据栅格中,对空间内每个体素进行精确的语义分类/识别,重建出包括遮挡和图像不可见区域在内的复杂的具有语义标签的三维场景;基于重建的三维场景进行车位占据预测,根据占据预测结果识别出车位异常情况。本发明通过结合深度信息和图像特征进行3D重建,能够有效解决基于单目视觉的3D重建方法中存在的精度不足问题。
-
-
-
-
-
-
-
-
-