基于频谱集中程度引入重参数化的光场去噪方法和装置

    公开(公告)号:CN116703770A

    公开(公告)日:2023-09-05

    申请号:CN202310684718.6

    申请日:2023-06-09

    Abstract: 本发明公开了一种基于频谱集中程度引入重参数化的光场去噪方法和装置,其包括:步骤1,通过极小化集中程度度量函数,计算重参数化光场双平面间距Dre;步骤2,按照重参数化光场双平面间距Dre对带噪光场进行重参数化,输出重参数化之后的带噪光场;步骤3,使用hyperfan滤波器对重参数化后的带噪光场进行去噪,输出去噪后的重参数化光场。本发明能够有较好的去噪效果,同时能够较好地保持场景边缘和反光等信息。

    基于RGB-D超像素分割的聚焦堆栈数据拼接融合的方法及系统

    公开(公告)号:CN112669355B

    公开(公告)日:2023-07-25

    申请号:CN202110006480.2

    申请日:2021-01-05

    Abstract: 本发明公开了一种基于RGB‑D超像素分割的聚焦堆栈数据拼接融合方法及系统,该方法包括:步骤1,由聚焦堆栈数据计算生成全聚焦图与深度图,即准确配准的RGB‑D数据;步骤2,将低分辨率的2D大视场图像上采样至与RGB‑D数据尺度一致;步骤3,对RGB‑D数据进行超像素分割;步骤4,提取并匹配全聚焦图与大视场2D图像之间的特征点,计算同一深度层超像素的准确单应性变换矩阵;步骤5,逐深度层进行超像素变换实现全聚焦图和深度图的拼接融合;步骤6,由大视场的RGB‑D数据生成大视场的聚焦堆栈数据。本发明能够实现多组不同视角下的聚焦堆栈数据的拼接融合。

    一种基于视觉特征聚合的光场质量评价方法

    公开(公告)号:CN112967242B

    公开(公告)日:2023-07-04

    申请号:CN202110218843.9

    申请日:2021-02-26

    Inventor: 刘畅 邱钧 邹卓成

    Abstract: 本发明公开了一种基于视觉特征聚合的光场质量评价方法,该方法包括:步骤1,获取光场数据集;步骤2,提取每一四维光场的视觉特征,得到每个四维光场的视觉聚合特征;视觉特征为四维光场的中心子孔径图像的特征向量LFCV、宏像素图上的特征向量LFMLI、极平面图像上的灰度共生矩阵特征向量LFEPI、以及不同重聚焦面上重聚焦图的特征向量LFRI中的一种或一种以上的组合;LFCV用于描述光场在空间清晰度上质量变化情况,LFMLI用于描述光场在角度域一致性退化情况,LFEPI用于描述光场在空‑角耦合域上结构变化情况,LFRI用于描述光场在投影域上的质量变化情况;步骤3,根据所述视觉聚合特征,使用支持向量回归训练得到光场质量分数评测模型;步骤4,通过光场质量分数评测模型评价光场的质量分数。本发明计算得到的光场质量客观评价分数与主观评价分数有较高的一致性。

    基于YCbCr超像素和图割的鸟类关键部位提取方法和装置

    公开(公告)号:CN112381830B

    公开(公告)日:2022-08-09

    申请号:CN202011300818.7

    申请日:2020-11-19

    Abstract: 本发明公开了一种基于YCbCr超像素和图割的鸟类关键部位提取方法和装置,该方法包括:步骤1,在YCbCr颜色空间下,对鸟类图像进行超像素分割,形成图割模型的node顶点;步骤2,对鸟类图像中的背景和鸟身体的各关键部位进行多边形标记,并制作背景和关键部位的标签类型,形成图割模型中的Terminal节点;步骤3,利用超像素的颜色直方图和纹理直方图比较两个超像素的相似程度,计算两Node节点之间的边以及Node节点与Terminal节点之间的边;步骤4,构建图割模型中目标函数,并进行优化求解,得到鸟类关键部位分割结果。本发明能够获得鸟类具有区分性的精确关键部位特征,有助于避免拍摄角度、光照及姿态的影响,提高鸟类图像细粒度分类与识别的准确率。

    一种基于RGB-D图像的三维场景特征表达与高精度匹配方法

    公开(公告)号:CN107945221B

    公开(公告)日:2021-06-11

    申请号:CN201711293626.6

    申请日:2017-12-08

    Abstract: 本发明公开了一种基于RGB‑D图像的三维场景特征表达与高精度匹配方法,利用透视投影模型和尺度空间理论,检测并提取RGB‑D图像的三维特征点;利用圆的旋转不变性,为每一个特征点选定以其为圆心的四个同心圆区域为此特征点所需的特征描述区域;在每个圆环区域以及最里面的中心圆区域内分别计算像素点的梯度模值和方向,建立方向直方图,其中,“圆环区域”为相邻的两同心圆之间的环形区域;利用方向直方图,建立环形描述子,对每一个特征点进行特征描述,生成特征向量,并根据特征向量间的欧式距离匹配特征点。通过采用本发明提供的方法,对RGB‑D图像进行三维特征表达与匹配,避免了主方向的分配、降低特征向量的维数,为后续特征匹配降低了计算量、节省了时间,实现特征匹配的实时性。

    一种基于特征点密度由聚焦堆栈估计深度的方法和装置

    公开(公告)号:CN106875436B

    公开(公告)日:2019-10-22

    申请号:CN201710090688.0

    申请日:2017-02-20

    Inventor: 邱钧 何建梅 刘畅

    Abstract: 本发明公开了一种基于特征点密度由聚焦堆栈估计深度的方法和装置,所述方法包括:提取聚焦堆栈中每个图像的特征点,建立基于特征点密度的聚焦测度;建立引入特征点密度的加权聚焦测度的估计深度的模型:以采用SML聚焦测度为例,建立SML与特征点密度的加权线性混合聚焦测度作为深度估计的目标函数,实现对场景深度的估计和全聚焦图。本发明的方案,建立关于特征点密度的聚焦测度及建立线性加权聚焦测度,并构建基于聚焦测度的深度估计模型,获取场景的深度信息,以实现场景的全聚焦与三维重构,可为现实三维重构提供精确的深度信息并获取全聚焦图像。

    基于特征点追踪由聚焦堆栈重构三维场景的方法和装置

    公开(公告)号:CN106846469A

    公开(公告)日:2017-06-13

    申请号:CN201710091014.2

    申请日:2017-02-20

    Inventor: 刘畅 邱钧

    Abstract: 本发明公开了一种基于特征点追踪由聚焦堆栈重构三维场景的方法和装置,包括:建立由三维场景生成聚焦堆栈的正演模型,给出三维场景特征点与聚焦堆栈的几何关系;提取聚焦堆栈中每个图像的特征点,追踪匹配成功的特征点的坐标,得到特征点在聚焦堆栈中的轨迹;建立由聚焦堆栈重构三维场景的反演模型:由匹配成功的特征点,建立关于特征点三维坐标的方程组,通过求解方程组得到特征点的三维坐标,重构三维场景,并实现三维几何测量。本发明的聚焦堆栈是将探测器固定,通过沿光轴移动透镜完成聚焦堆栈的采集,采用本发明的方案,能够实现相机拍摄视角下的三维重构,可以为虚拟现实和几何测量提供精确的三维结构信息。

    一种基于条件VAE模型的光场角度超分辨方法

    公开(公告)号:CN119151783A

    公开(公告)日:2024-12-17

    申请号:CN202410944662.8

    申请日:2024-07-15

    Abstract: 本发明涉及一种基于条件VAE模型的光场角度超分辨方法,属于计算成像、机器视觉与数字图像处理技术领域,包括如下步骤:通过采集视点平面等间隔稀疏的光场子孔径图像阵列LFγ和中心子孔径图像LF0分别输入视差估计模块(P)和特征提取模块(F),获得场景初始视差图和不同层级的中心子孔径特征;本发明可以不依赖大规模的高分辨率训练数据集,可对全部光场子孔径图像同步做角度域的超分辨重构,设计一种基于光场数据的空角一致性混合损失函数,使新模型在重构角度高分辨率的子孔径图像时能够利用耦合在子孔径图像种的视差信息,在合成和真实数据集上数值实验结果接近有监督方法,同时能够满足基于深度学习的方法对光场角度域的超分辨。

Patent Agency Ranking