-
公开(公告)号:CN107146248A
公开(公告)日:2017-09-08
申请号:CN201710289393.6
申请日:2017-04-27
Applicant: 杭州电子科技大学
CPC classification number: G06T7/593 , G06N3/0454 , G06N3/08 , G06T2207/10012 , G06T2207/20228
Abstract: 本发明公开了一种基于双流卷积神经网络的立体匹配方法。该方法利用一种双流卷积神经网络,学习并计算出左右视图中目标区域的匹配代价,并以交叉聚合算法作为辅助,有效地获得目标图像的视差图。双流网络结构不仅继承了卷积神经网络计算量小,性能稳定等优点,同时拥有较大的接受域,并且更充分地提取了目标点邻近区域的特征,拥有更高的精度。
-
公开(公告)号:CN104883737A
公开(公告)日:2015-09-02
申请号:CN201510300338.3
申请日:2015-06-04
Applicant: 杭州电子科技大学
CPC classification number: H04W64/006 , H04W84/18
Abstract: 本发明涉及无线传感器网络节点的定位技术,具体说是一种新型无线传感器网络混合定位方法。本发明针对无线传感器网络中基于测距的RSSI定位方法和基于非测距的DV-Hop定位算法的优缺点,提出了利用基于测距的RSSI技术获得的节点间的信号强度来修正节点间的跳数,从而提高网络节点的定位精度。本发明综合RSSI技术和DV-Hop定位算法,进行了测距与非测距技术的混合定位,在不增加额外成本的基础上,有效地提高了节点的定位精度。
-
公开(公告)号:CN102867313B
公开(公告)日:2015-04-22
申请号:CN201210311804.4
申请日:2012-08-29
Applicant: 杭州电子科技大学
IPC: G06T7/40
Abstract: 本发明涉及一种融合区域颜色和HoG特征的视觉显著性检测方法。目前方法通常都基于区域颜色特征的纯计算模型,对于纹理的显著性差异不敏感。本发明方法首先在原始图像的CIELAB空间彩色分量图上,通过分析超像素区域的颜色对比度和分布特性,计算每个像素的颜色显著性值;然后在原始图像的RGB空间彩色分量图上,提取基于HoG的局部矩形区域纹理特征,并通过分析局部矩形区域的纹理对比度和分布特性,计算每个像素的纹理显著性值;最后采用二次非线性融合方法将每个像素的颜色显著性值和纹理显著性值融合为该像素的最终显著性值。本发明方法获得不仅可获得符合人眼视觉感官的全分辨率显著性图像,并且对显著性目标具有更强的区分能力。
-
公开(公告)号:CN102222328B
公开(公告)日:2012-10-03
申请号:CN201110182918.9
申请日:2011-07-01
Applicant: 杭州电子科技大学
Abstract: 本发明涉及一种边缘保持的自然场景图像自适应加权滤波方法。本发明方法首先根据高斯滤波器的标准差,计算高斯模板,采用暗通道先验方法,获取原始图像中的深度线索,并归一化,生成深度先验图像。其次计算高斯模板上每个坐标点的空间近邻性权值和计算原始图像上两像素点间的亮度/颜色相似性权值。然后计算原始图像上两像素点间的深度差异性权值和计算模板中心对应于该像素点的自适应加权滤波模板,最后对原始图像中每个像素点,计算其自适应加权滤波结果。本发明方法不仅在亮度/颜色相似性权值计算中考虑了人眼对亮度差异比色彩差异的敏感度不同这一特性,使得该方法符合生物模型。
-
公开(公告)号:CN102222328A
公开(公告)日:2011-10-19
申请号:CN201110182918.9
申请日:2011-07-01
Applicant: 杭州电子科技大学
Abstract: 本发明涉及一种边缘保持的自然场景图像自适应加权滤波方法。本发明方法首先根据高斯滤波器的标准差,计算高斯模板,采用暗通道先验方法,获取原始图像中的深度线索,并归一化,生成深度先验图像。其次计算高斯模板上每个坐标点的空间近邻性权值和计算原始图像上两像素点间的亮度/颜色相似性权值。然后计算原始图像上两像素点间的深度差异性权值和计算模板中心对应于该像素点的自适应加权滤波模板,最后对原始图像中每个像素点,计算其自适应加权滤波结果。本发明方法不仅在亮度/颜色相似性权值计算中考虑了人眼对亮度差异比色彩差异的敏感度不同这一特性,使得该方法符合生物模型。
-
公开(公告)号:CN102222226A
公开(公告)日:2011-10-19
申请号:CN201110166841.6
申请日:2011-06-21
Applicant: 杭州电子科技大学
Abstract: 本发明涉及一种基于先验分析的迭代式车牌字符分割方法。本发明首先对车牌图像进行预处理,利用垂直投影法对预处理后的车牌图像进行分割,并计算每个字符块参数,依据该参数作出初步筛选;其次利用阈值迭代法对初步筛选后的字符进行二值化,根据标准车牌制式,计算各字符块所含的先验知识,获得再次筛选后的字符;然后计算经过再次筛选后的字符块个数,满足设定条件则计算车牌字符宽度和所有字符的平均宽度,根据这两个参数确定是否能获得最终字符,不满足设定条件则重新投影。本发明降低了对车牌定位准确度的要求,克服了复杂背景带来的不利影响,消除了其他方法中常见的粘连、断裂等分割结果,进一步提高了分割的准确度。
-
公开(公告)号:CN114418872B
公开(公告)日:2025-04-11
申请号:CN202111627418.1
申请日:2021-12-28
Applicant: 杭州电子科技大学
Abstract: 本发明公开了一种基于mGANprior的真实图像美感增强方法,对于待增强美感的真实图像,选择对应类型的PGGAN预训练生成模型,并确定需要增强的美感效果类型;使用级联分割模块方法对真实图像进行语义分割;使用mGANprior方法得到逆映射的图像;根据需增强的美学风格,对真实图像与逆映射的图像做对应的退化变换并计算损失,通过梯度下降优化得到最终的隐向量与图像美学风格增强后的图像Ienh;本发明方法实现了真实图像的美感增强,既最大程度的保留图像的原有信息,又对图像进行了可控的美学风格修改,本发明依据美学因素提出一种退化变换的损失函数,可以在真实图像上生成具有美感的模糊效果。
-
公开(公告)号:CN112508973B
公开(公告)日:2024-10-18
申请号:CN202011118130.7
申请日:2020-10-19
Applicant: 杭州电子科技大学
IPC: G06T7/12 , G06T7/155 , G06T5/30 , G06T5/90 , G06T5/60 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明公开一种基于深度学习的MRI图像分割方法。本发明先利用图像数据增强、提取技术,对数据进行扩容,利用形态学的方法,得到前列腺边缘的标签。然后在U‑Net网络基础上加入IBN模块,把maxpool层改成stride conv层,采用2D和3D卷积结合的方法,作为编码部分;在解码部分中,采用两个解码器,其中一个解码器进行前列腺整体的分割预测,另一个解码器进行单独的前列腺边缘的预测。本发明采用了IN和BN相结合的策略,使得模型泛化能力得到加强。同时,把原本下采样的maxpool层改成stride conv层,使得模型保留图像细节信息的能力得到加强,使得分割的结果更加精细。采用2D和3D卷积相结合的做法进一步提高模型的精度。
-
公开(公告)号:CN114299588B
公开(公告)日:2024-05-10
申请号:CN202111654265.X
申请日:2021-12-30
Applicant: 杭州电子科技大学
IPC: G06V40/16 , G06V10/764 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本发明公开了一种基于局部空间转换网络的实时目标编辑方法,首先获取高分辨率图像并制作训练数据集和测试数据集,然后通过掩码转换网络获取目标掩码的仿射变换矩阵,并实现目标图像的采样再使用空洞修复网络修复图像空洞,最后通过获得的数据集训练并测试掩码转换网络和空洞修复网络。本发明MTN专注于掩码学习,可使用与业务无关的数据集训练网络模型,降低了构建数据集的成本和模型的训练成本,完成目标编辑任务的同时解决了传统深度学习方法中图像空洞的出现问题。
-
公开(公告)号:CN114283083B
公开(公告)日:2024-05-10
申请号:CN202111580516.4
申请日:2021-12-22
Applicant: 杭州电子科技大学
IPC: G06T5/60 , G06T11/00 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/0475 , G06N3/094
Abstract: 本发明公开了一种基于解耦表示的场景生成模型的美学增强方法,首先选取一个StyleGAN的场景生成模型,得到隐向量矩阵Z和对隐向量矩阵Z做非线性变换产生的隐向量矩阵W;然后训练图像美学评价模型和图像美学风格模型,得到预测评分S;利用隐向量矩阵W以及预测评分S训练SVM分界面;对所选StyleGAN场景生成模型进行生成图像美学增强。本发明通过训练不同的美学预测器,对GAN生成网络中潜在的美学神经元进行解耦和操控,从而实现生成图像美学属性的可编辑,通过对隐空间进行语义编辑改变图像美学属性的方式,避免了对GAN模型结构的改动以及GAN的重新训练与调优,从而极大的缩短训练时间、减少所需资源。
-
-
-
-
-
-
-
-
-