-
公开(公告)号:CN114120041B
公开(公告)日:2024-05-17
申请号:CN202111432553.0
申请日:2021-11-29
IPC: G06V10/764
Abstract: 本发明公开了一种基于双对抗变分自编码器的小样本分类方法,解决现有分类方法在小样本下网络难以训练、准确率较低的问题。该分类方法包括:数据预处理,对目标数据集进行清洗、填充和归一化;模型设计与优化步骤,利用VAE和GAN设计相应的网络结构,并针对过拟合和训练产生震荡等问题进行模型的优化;模型训练步骤,利用小样本数据集对模型进行训练,进而获得网络模型权重;模型预测步骤,输入测试集对模型进行预测,对比现有的一些经典深度学习分类方法,验证本发明的有效性。本发明公开的方法中构建的模型能够在小样本情况下实现数据增强,并且能够提取有效特征从而提高分类的准确率,普遍适用于不同类型的分类任务。
-
公开(公告)号:CN114897180A
公开(公告)日:2022-08-12
申请号:CN202210491986.1
申请日:2022-05-06
Applicant: 暨南大学
IPC: G06N20/00 , G06N3/00 , G06V10/764 , G06K9/62
Abstract: 本发明公开了一种基于加权深度森林的小样本数据分类方法,解决现有分类方法在小样本数据下难以进行表征学习、无法正确分类的问题。该分类方法包括:数据预处理,对待分类数据进行清洗、填充和归一化;模型构建,为解决深度森林模型存在的问题,构建基于加权深度森林的小样本数据分类模型;模型训练,利用小样本数据集对模型进行训练,获得最优基于加权深度森林的小样本数据分类模型;模型预测,将真实待分类数据输入训练得到的模型,得到分类结果。对比其他较流行的机器学习分类方法,验证本发明的有效性。本发明公开的方法中构建的模型,适用于不同类型的小样本数据分类任务,与深度神经网络相比,训练速度更快,分类效果更好。
-
公开(公告)号:CN114120041A
公开(公告)日:2022-03-01
申请号:CN202111432553.0
申请日:2021-11-29
IPC: G06V10/764
Abstract: 本发明公开了一种基于双对抗变分自编码器的小样本分类方法,解决现有分类方法在小样本下网络难以训练、准确率较低的问题。该分类方法包括:数据预处理,对目标数据集进行清洗、填充和归一化;模型设计与优化步骤,利用VAE和GAN设计相应的网络结构,并针对过拟合和训练产生震荡等问题进行模型的优化;模型训练步骤,利用小样本数据集对模型进行训练,进而获得网络模型权重;模型预测步骤,输入测试集对模型进行预测,对比现有的一些经典深度学习分类方法,验证本发明的有效性。本发明公开的方法中构建的模型能够在小样本情况下实现数据增强,并且能够提取有效特征从而提高分类的准确率,普遍适用于不同类型的分类任务。
-
-