-
公开(公告)号:CN108491528B
公开(公告)日:2021-09-21
申请号:CN201810264981.9
申请日:2018-03-28
Applicant: 苏州大学
IPC: G06F16/55 , G06F16/583 , G06K9/62 , G06T9/00
Abstract: 本申请公开了一种图像检索方法、系统及装置,包括待检索图像经由整体检索模型进行分类判断,根据整体模型的分类判断结果为待检索图像选取相应的局部检索模型,待检索图像由相应的局部检索模型进行特征分析并进行哈希编码映射,得到待检索图像的哈希编码,同时,在与局部检索模型对应的目标哈希编码库中检索与待检索图像的哈希编码相似的哈希编码,最后从中选取满足相似条件的相似哈希编码集,并在图像数据库中查找到与相似哈希编码集对应的相似图像集,完成检索;本申请预先建立进行分类判断的整体检索模型,再利用整体检索模型生成局部检索模型,提高对图像的检索准确度,并建立与局部检索模型对应的目标哈希编码库,进一步的提高检索准确度。
-
公开(公告)号:CN107886090B
公开(公告)日:2021-07-30
申请号:CN201711352665.9
申请日:2017-12-15
Applicant: 苏州大学
Abstract: 本申请公开了单样本人脸识别方法、系统、设备及可读存储介质,其中,该方法包括:获取已标注的人脸图像数据,得到参考数据;通过对所述参考数据进行多尺度支持向量变换,得到所述参考数据相应的多尺度高维投影;提取所述多尺度高维投影的特征,得到所述参考数据相应的多尺度高维特征序列;利用所述多尺度高维特征序列,分别对所述参考数据和待测试数据进行反投影,得到所述参考数据和所述待测试数据相应的虚拟图像;根据所述参考数据对应的虚拟图像,计算所述待测试数据相应的虚拟图像的分类准确率,以完成对单样本的人脸识别。可见,本发明提供的单样本人脸识别方法将特征提取和样本扩充进行有机的结合,从而提高单样本人脸识别的准确率。
-
公开(公告)号:CN107480628B
公开(公告)日:2020-08-25
申请号:CN201710680306.X
申请日:2017-08-10
Applicant: 苏州大学
Abstract: 本发明实施例公开了一种人脸识别方法及装置。其中,方法包括对获取到的待识别图像与包含多个用户的单幅样本图像的样本训练库进行图像分割,将待识别图像与各样本图像分割为相同预设块数、位置一一对应、不重叠的多幅子图像;计算待识别图像的各子图像与各样本图像对应的子图像的相异性,将各个子图像的相异性值进行平均值融合计算,以得到待识别图像与各所述样本图像的相异性值;根据各相异性值,利用最近邻分类器为待识别图像在样本训练库中匹配对应的用户。有效避免了传统的利用相似性识别由于训练样本少造成的准确率较低的现象;有利于提升单样本训练的人脸图像识别的准确性,从而提高人脸识别的准确率,以提高身份鉴别的安全性。
-
公开(公告)号:CN105528620B
公开(公告)日:2019-12-06
申请号:CN201510918300.2
申请日:2015-12-11
Applicant: 苏州大学
IPC: G06K9/62
Abstract: 本发明公开了一种联合鲁棒主成分特征学习与视觉分类方法及系统,通过将鲁棒主成分特征学习、编码错误和基于主成分特征的分类错误集成到一个统一的最小化框架,可同时进行联合低秩与稀疏特征提取和数据纠错,且可确保得到的特征对于分类是最优的。为了得到描述性更强的鲁棒特征,同时考虑数据的低秩与稀疏特性,同时通过将一个投影嵌入的特征进行低秩和L1‑范数最小化,确保提取的特征满足低秩与稀疏特性。最终得到一个线性投影矩阵P和一个线性分类器W。P可直接提取待测样本的联合特征,进而将特征向W进行映射,可得到其软类别标签,通过软类别标签中最大值对应的位置,得到最准确的视觉分类结果。此外,通过得到P和W,有效提升了测试过程的可拓展性。
-
公开(公告)号:CN109978064A
公开(公告)日:2019-07-05
申请号:CN201910248531.5
申请日:2019-03-29
Applicant: 苏州大学
IPC: G06K9/62
Abstract: 本发明公开了一种基于图像集的李群字典学习分类方法。本发明一种基于图像集的李群字典学习分类方法,包括:用P=[p1,p2,...,pn]表示一个包含n样本的图像集;每个pi是一个一维向量,代表该图像集中的一个图像;使用协方差矩阵S来表示图像集:是图像的平均值向量;由于图像集的样本数量通常小于图像的维数,因此矩阵在某些情况下有可能不是正定矩阵;添加一个扰动项λ来解决这个问题。本发明的有益效果:通过将图像集描述为SPD矩阵,使得每个图像集对应于SPD李群上的元素,不仅保留图像集的主要信息,还将基于图像集的分类问题转换为线性分类问题。
-
公开(公告)号:CN104899578B
公开(公告)日:2019-02-12
申请号:CN201510363785.3
申请日:2015-06-26
Applicant: 苏州大学张家港工业技术研究院
IPC: G06K9/00
Abstract: 本发明公开了一种人脸识别的方法,包括:将获取得到的人脸图像数据作为待测样本;利用投影变换矩阵将所述待测样本映射到低维特征空间中,得到投影后的测试样本;在训练样本集合中,查找与所述测试样本距离最近的标准样本作为目标样本;将所述目标样本的类别确定为所述测试样本的类别;其中,所述投影变换矩阵为通过构造的类内邻接矩阵以及类间邻接矩阵,对所述训练样本集合中的多个样本进行训练得到的变换矩阵,以使类间距离最大、类内距离最小。本发明所提供的人脸识别的方法及装置,为正交判别投影分别构造了两个邻接矩阵:类间和类内邻接矩阵,把类内信息和类间信息分开表示,以得到均衡的信息,从而实现类内最小和类间最大的目的。
-
公开(公告)号:CN104484684B
公开(公告)日:2018-11-02
申请号:CN201510001954.9
申请日:2015-01-05
Applicant: 苏州大学
IPC: G06K9/66
Abstract: 本申请公开了一种手写体识别方法及系统,方法为:利用带平滑范数L1的自编码器对训练样本集中的各个训练样本进行处理,得到对应的目标训练样本,所述目标训练样本与所述训练样本集中的样本标签组成目标训练样本集,所述带平滑范数L1的自编码器的目标函数中设有稀疏惩罚项,该稀疏惩罚项为平滑L1范数,然后利用目标训练样本训练分类器,得到目标分类器,利用带平滑范数L1的自编码器对待预测样本进行处理,得到目标待预测样本,最后将所述目标待预测样本输入至所述目标分类器,以确定待预测样本的类别。本申请的方案将平滑范数L1引入自编码器中,代替常用的KL散度,作为新的稀疏惩罚项,能够得到更具判别性的特征,使得最终的手写体识别率更高。
-
公开(公告)号:CN108710907A
公开(公告)日:2018-10-26
申请号:CN201810461229.3
申请日:2018-05-15
Applicant: 苏州大学
IPC: G06K9/62
CPC classification number: G06K9/6268 , G06K9/6256
Abstract: 本申请公开了一种手写体数据分类方法、模型训练方法、装置、设备及介质,包括:获取包含手写体数据样本和相应的手写体类别标签的原始训练样本集;对所述原始训练样本集进行数据预处理,以从所述原始训练样本集中选取出能够保持流形结构的非噪声数据,得到处理后训练样本集;利用所述处理后训练样本集进行稀疏支持向量机模型的训练,得到训练后模型。本申请在获取到原始训练样本集之后,会对原始训练样本集进行去噪处理,并且只保留能够保持流形结构的非噪声数据,从而降低了用于训练模型的样本数据的冗余度,减少样本数据量的同时还提升了样本数据的准确度,由此使得后续训练得到的模型具有非常出色的分类精度。
-
公开(公告)号:CN108416384A
公开(公告)日:2018-08-17
申请号:CN201810178640.X
申请日:2018-03-05
Applicant: 苏州大学
Abstract: 本发明实施例公开了一种图像标签标注方法、系统、设备及计算机可读存储介质。其中,方法包括将训练样本集和待标注图像输入卷积神经网络中,卷积神经网络为被训练样本集采用反向传播算法最小化交叉熵损失函数,以调整卷积神经网络的权重进行训练,并将训练好的卷积神经网络的权重进行重新加载,以提取训练样本集的样本网络特征集和待标注图像的测试网络特征集;根据样本网络特征集、测试网络特征集及标签集合,计算待标注图像属于标签集合中每类标签的概率,生成标签概率集;最后根据标签概率集,为待标注图像的进行标签标注。本申请提供的技术方案结合深度学习和标签传播算法,自动提取图像高层语义特征,从而提升了图像标注的效率和准确率。
-
公开(公告)号:CN108108687A
公开(公告)日:2018-06-01
申请号:CN201711365229.5
申请日:2017-12-18
Applicant: 苏州大学
Abstract: 本申请公开了一种手写体数字图像聚类方法、系统及设备,该方法包括:获取手写体数字图像对应的样本数据集;利用聚类算法从所述样本数据集中确定出m个聚类中心作为锚点;利用所述锚点确定所述样本数据集中不同样本数据之间的相似性矩阵;对所述相似性矩阵进行特征分解,以得到低维嵌入;利用聚类算法对所述低维嵌入进行聚类,以得到每个样本数据对应的聚类类别标签;结合所述聚类类别标签以及集成学习算法,确定出每个样本数据的最终分类结果。本申请有效地提升了手写体数字图像的分类准确率。
-
-
-
-
-
-
-
-
-