-
公开(公告)号:CN114996495B
公开(公告)日:2025-03-14
申请号:CN202210551149.3
申请日:2022-05-18
Applicant: 大连理工大学 , 大连维视科技有限公司
IPC: G06F16/53 , G06V10/26 , G06V10/74 , G06V10/762 , G06V10/774
Abstract: 本发明提供一种基于多原型和迭代增强的单样本图像分割方法及装置。方法包括:分别获取支持图像和查询图像,基于同一特征提取网络获取支持特征和查询特征;基于支持特征的前景部分生成若干支持原型;计算任意支持原型与查询特征的余弦相似度生成相应的相似度图,将各支持原型根据引导表放置到对应位置,生成引导特征;同时,对所有相似度图进行累加操作生成指引查询前景位置的概率图;将所述查询特征、引导特征以及概率图连接后,进行基于多尺度增强,解码后生成查询分割图。本发明采用输出迭代来增强支持特征的指导信息,利用产生的分割图通过加法和乘法计算修正前面进行指导的概率图,使其重新进行更为准确的引导,生成更为精确的分割结果。
-
公开(公告)号:CN115115970B
公开(公告)日:2024-09-13
申请号:CN202210557195.4
申请日:2022-05-19
Applicant: 大连理工大学 , 大连维视科技有限公司
Abstract: 本发明提供一种基于自适应匹配的视频显著性检测方法、装置及存储介质。方法包括:S1、将待检测视频的第一帧图像数据输入分割网络进行处理;S2、建立一个记忆模块存储参考特征,用第一帧前景特征进行初始化;S3、将下一帧图像数据输入特征提取网络,将当前帧特征与参考特征进行相关性匹配,基于相关性匹配图与前一帧的显著性预测图获取相关性匹配特征,将相关性特征、当前帧的8倍下采样特征以及前一帧的前景特征融合后送入所述预测网络,从而得到当前帧的显著性预测图;S4、根据当前帧前景特征与参考特征的相关性匹配结果更新记忆模块的参考特征;S5、持续输入视频帧,重复上述S3‑S4直到得到所有视频帧的显著性预测图。本发明有效地利用视频整体的时序信息,并且不会随着视频帧数的增多而增加大量计算量。
-
公开(公告)号:CN117689906A
公开(公告)日:2024-03-12
申请号:CN202311691149.4
申请日:2023-12-11
Applicant: 大连理工大学 , 大连理工大学宁波研究院 , 大连维视科技有限公司
IPC: G06V10/62 , G06V10/44 , G06V10/80 , G06V10/26 , G06V10/762 , G06V10/764 , G06V10/82 , G06V20/40 , G06N3/0464 , G06N3/045 , G06N3/084 , G06N3/048
Abstract: 本发明属于深度学习、多模态目标跟踪和提示学习领域,涉及动态图卷积网络、K近邻聚类算法和单目标跟踪算法OSTrack。本发明提出了一种基于3D提示信息的彩色和深度图像单目标跟踪算法,旨在提升算法在各种场景中的泛化能力,同时提高其在极端条件下的性能。该方法可部署在自动驾驶场景中的多种设备上,为视觉定位导航提供目标信息。本发明的优势在于:通过使用3D提示信息赋予2D预训练模型对3D环境的感知能力,提高了跟踪算法对目标位置的计算精度,并降低了干扰物在跟踪过程中的影响。同时,这种方法降低了网络对训练数据量的需求,并提升了跟踪算法的精度。
-
公开(公告)号:CN117689704A
公开(公告)日:2024-03-12
申请号:CN202311689601.3
申请日:2023-12-11
Applicant: 大连理工大学 , 大连理工大学宁波研究院 , 大连维视科技有限公司
IPC: G06T7/50 , G06V10/44 , G06V10/52 , G06V10/80 , G06V10/82 , G06V10/25 , G06N3/0464 , G06N3/042 , G06N3/0455 , G06N3/084 , G06N3/048
Abstract: 本发明属于机器学习、扩散模型、单目深度估计领域,公开了一种基于扩散模型的单目图像深度估计方法,包括扩散模型特征提取器stable‑diffusion、目标检测算法Detic、场景布局交互算法以及锚框提示深度图生成机制。提供了目标锚框作为条件提示,基于扩散模型stable‑diffusion的单目图像深度估计方法。该方法通过改进条件提示的使用方式,使得扩散模型在单目深度估计任务中更加灵活和多样化。提出了一种预处理方式,利用单目深度估计中的深度分布知识对条件提示进行合理的预处理和优化,以提高模型在不同场景下的泛化能力。引入了一种数据增强方法,进一步优化模型性能和深度图预测效果。
-
公开(公告)号:CN115830090A
公开(公告)日:2023-03-21
申请号:CN202211532186.6
申请日:2022-12-01
Applicant: 大连理工大学 , 大连理工大学宁波研究院 , 大连维视科技有限公司
IPC: G06T7/38 , G06N3/0455 , G06N3/08
Abstract: 本发明属于机器学习、3D计算机视觉、单目深度预测、自监督学习领域,提供了一种基于像素匹配预测相机姿态的自监督单目深度预测训练方法。本发明将自监督深度预测学习中抽象的相机运动预测过程转化为基于像素匹配的过程,并通过几何方式求解相机运动,增强其可解释性,同时提升其泛化性。本发明借助传统几何方法求解的相机运动更准确,使得自监督深度预测学习在室内环境或相机运动姿态变化大的场景下训练过程更稳定、效果更鲁棒。
-
公开(公告)号:CN115810019A
公开(公告)日:2023-03-17
申请号:CN202211532176.2
申请日:2022-12-01
Applicant: 大连理工大学 , 大连理工大学宁波研究院 , 大连维视科技有限公司
IPC: G06T7/10 , G06T7/50 , G06T9/00 , G06N3/0464 , G06N3/08
Abstract: 本发明属于机器学习、单目深度补全领域,公开了一种基于分割和回归网络对离群点鲁棒的深度补全方法。分割网络对于离群点更为鲁棒,回归网络可以生成更为精准的结果,本方法结合二者的优势,使用了一种对离群点更为鲁棒的单目深度补全方法。其中,包含一种分割‑回归的级联网络结构,相较于同参数量的纯回归网络结构,对非离群点的精度更高。同时,利用分割网络对于离群点更为鲁棒的特性,采用了一种对离群点更为鲁棒的损失函数,可以在训练过程中过滤掉一部分离群点,有效缓解了因拟合离群点从而降低网络性能的问题,从而进一步提高了非离群点的精度。
-
公开(公告)号:CN115797835A
公开(公告)日:2023-03-14
申请号:CN202211532178.1
申请日:2022-12-01
Applicant: 大连理工大学 , 大连理工大学宁波研究院 , 大连维视科技有限公司
IPC: G06V20/40 , G06V10/26 , G06V10/80 , G06V10/774 , G06N3/0464 , G06N3/048 , G06N3/088
Abstract: 一种基于异构Transformer的无监督视频目标分割算法,为无监督视频目标分割网络在外观运动特征融合的浅层和深层阶段设计两种不同的基于Transformer的融合策略,分别是全局上下文共享的Transformer和语义聚合‑回嵌的Transformer。全局上下文共享的Transformer能以较低的计算量学习视频帧之间的全局共享上下文信息,语义聚合‑回嵌的Transformer对前景和背景分别建模语义相关性并通过对特征向量软聚合的方式来进一步降低计算量。基于两种融合模块,为无监督视频目标分割任务设计一种层级异构的Transformer架构,这种架构能以较低的计算量实现最先进的性能。
-
公开(公告)号:CN119964144A
公开(公告)日:2025-05-09
申请号:CN202510052714.5
申请日:2025-01-14
Applicant: 大连理工大学 , 大连理工大学宁波研究院 , 大连维视科技有限公司
IPC: G06V20/64 , G06V20/70 , G06V10/26 , G06V10/44 , G06V10/82 , G06N3/0455 , G06N3/084 , G06N3/0985
Abstract: 本发明属于自动驾驶、深度学习、3D占用预测,提供了一种基于2D‑3D联合训练的空间占用估计方法。本发明使用跨模态查询机制,将2D图像的语义特征与3D体素特征进行融合,提升了3D占用预测的精度。通过在2D语义分割和3D占用预测任务之间共享统一的查询参数,方法在保证模型预测准确性的同时,减少了计算量,并增强了模型对复杂场景的泛化能力。本发明通过交叉注意力机制在2D和3D特征之间进行有效交互,从而优化了空间占用的预测效果。该方法特别适用于自动驾驶环境下的实时场景感知任务,提高了在动态环境中对目标空间占用的识别与预测能力。
-
公开(公告)号:CN114202663B
公开(公告)日:2024-12-31
申请号:CN202111468686.3
申请日:2021-12-03
Applicant: 大连理工大学宁波研究院 , 大连维视科技有限公司 , 大连理工大学
Abstract: 本发明属于图像显著度检测技术领域,一种基于彩色图像和深度图像的显著度检测方法。将彩色图像以及深度图像送入到双路的VGG‑16编码器进行编码,在编码过程中信息交互模块被用来传递来自于不同模态间的信息;双路VGG‑16最深的多模态特征送入跨模态互引导模块来进行更新和融合;上述编码过程获取的多水平多模态特征送入残差的多尺度聚合模块实现多水平特征残差式聚合,并且聚合后的特征采用特征金字塔网络结构实现最终的从高水平到低水平解码特征的渐进式融合,输出显著度检测结果。本发明很好的利用彩色图像以及深度图像的互补信息,能够处理在显著性检测中一直难以处理的低对比度和复杂背景的情况,并能够很好的应用于一般图像中。
-
公开(公告)号:CN114998756B
公开(公告)日:2024-09-24
申请号:CN202210541629.1
申请日:2022-05-17
Applicant: 大连理工大学 , 大连维视科技有限公司
IPC: G06V20/13 , G06V10/40 , G06V10/75 , G06V10/764 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明提供一种基于yolov5的遥感图像检测方法、装置及存储介质。方法包括:S1、获取统一尺寸的遥感图像构成遥感图像数据集,获取每幅遥感图像的检测目标标注结果图像,从而获得遥感图像样本集,所述遥感图像样本集中的样本包括遥感图像和与遥感图像匹配的检测目标标注结果图像;对所述遥感图像样本集中的样本按照预设比例随机划分为训练集和测试集;S2、基于训练集和测试集中的样本数据对改进的yolov5模型的进行模型训练,所述改进的yolov5模型包括特征提取模块、CBAM模块、特征融合模块以及分类输出模块;S3、基于训练完成的改进的yolov5模型对遥感图像进行目标检测。本发明采用改进的yolov5模型能够更好的实现特征融合,给出精准的检测分类结果。
-
-
-
-
-
-
-
-
-