-
公开(公告)号:CN119598032A
公开(公告)日:2025-03-11
申请号:CN202411560074.0
申请日:2024-11-04
Applicant: 湖州师范学院
IPC: G06F16/9536 , G06F18/22 , G06F18/15 , G06N3/045 , G06N3/0985
Abstract: 本发明公开了相似度与流行度相结合的协同过滤方法,包括流行度计算以及将流行度与相似度相结合以进行协同推荐;本发明提出了一个引入高阶信息的物品流行度迭代计算方法,并构建对比损失函数实现了相似度与流行度的有效融合,且在三个公共数据集上进行的实验研究表明了本发明的模型与主流协同推荐方法相比在推荐性能和运行效率方面均展现出明显优势。
-
公开(公告)号:CN118093861A
公开(公告)日:2024-05-28
申请号:CN202310988366.3
申请日:2023-08-07
Applicant: 湖州师范学院
IPC: G06F16/35 , G06F18/214 , G06F18/241 , G06N3/042 , G06F40/279 , G06F40/258
Abstract: 本申请提供一种短文本分类方法、装置、设备及介质。该方法包括:将待分类短文本输入已训练短文本分类模型;采用异构信息网络生成待分类短文本异构图;采用已训练节点注意力网络根据待分类短文本异构图生成各节点的类型注意力系数和门控异构图注意力系数;采用已训练门控异构图注意力网络对各节点的初始特征进行k层迭代;通过各节点的门控异构图注意力系数分别对其第k层迭代特征和第k‑1层迭代特征进行加权求和后与各节点的类型注意力系数相乘,将乘积输入图卷积神经网络进行聚合获得各节点的聚合特征;将待分类短文本节点的聚合特征输入全连接层进行分类,以获得分类结果。本申请能够在不使用大量样本进行训练时,提高短文本分类的准确度。
-
公开(公告)号:CN115510959A
公开(公告)日:2022-12-23
申请号:CN202211113297.3
申请日:2022-09-14
Applicant: 湖州师范学院
IPC: G06K9/62
Abstract: 本发明提出了一种基于自然最近邻和多簇合并的密度峰值聚类方法,包括以下步骤:S1.基于自然最近邻重新定义DPC的局部密度,根据每个点的自然最近邻计算其局部密度并确定聚类中心;S2.通过基于共享最近邻和快速多聚类合并的两阶段分配策略,将剩余点分配到相应的簇中。本发明使用自然最近邻可以更自然和谐的体现每个点局部密度,且不需要手动设置K值。其次,本发明将不同的点细分并为其分配不同的权重,使得局部密度更加精确。最后,密度公式也加入全局信息,避免聚类中心的选择过分强调局部区域而导致聚类中心远离聚类中心区域而导致的聚类错误,具有优异的综合聚类性能。
-
公开(公告)号:CN110298382A
公开(公告)日:2019-10-01
申请号:CN201910445692.3
申请日:2019-05-27
Applicant: 湖州师范学院
IPC: G06K9/62
Abstract: 本发明公开了一种基于IFCM、KNN和数据字典的集成TSK模糊分类器,依次包括以下步骤:为每个子分类器从Dtr中随机抽样训练数据子集;并行训练L个零阶TSK模糊子分类器;对于验证数据集的每个样本,计算对应的每个输出函数的值并将其作为增强特征,将原始特征和增强特征合并,从而形成增强验证数据集;在增强验证数据集上调用IFCM算法后,生成代表性的中心点及其对应的标签,去掉增强特征,即得到数据字典;对于任何测试样本,利用KNN方法在数据字典上找到最近的k个点,基于投票策略,确定其类标。该分类方法具有较高的分类性能、强鲁棒性和高可解释性。
-
公开(公告)号:CN119599081A
公开(公告)日:2025-03-11
申请号:CN202411560072.1
申请日:2024-11-04
Applicant: 湖州师范学院
IPC: G06N3/082 , G06N3/0455 , G06N3/045 , G06N3/0464 , G06F40/30 , G06F16/9535
Abstract: 本发明公开了基于序列建模的项目嵌入通用预训练方法,通过预训练模型实现,所述预训练模型包括预处理层、嵌入层和混合感知注意力层;本发明创新性地设计并实现了一个高度通用的预训练模型,从而形成了一种基于序列建模的项目嵌入通用预训练方法,可利用交互数据构建项目交互序列,并将项目标题、项目描述、序列位置和交互时间等多源信息整合到序列建模框架中以生成语义增强的项目嵌入,有效缓解下游推荐系统中的数据稀疏问题,提高推荐模型的性能上限。
-
公开(公告)号:CN110298382B
公开(公告)日:2022-12-09
申请号:CN201910445692.3
申请日:2019-05-27
Applicant: 湖州师范学院
IPC: G06K9/62
Abstract: 本发明公开了一种基于IFCM、KNN和数据字典的集成TSK模糊分类器,依次包括以下步骤:为每个子分类器从Dtr中随机抽样训练数据子集;并行训练L个零阶TSK模糊子分类器;对于验证数据集的每个样本,计算对应的每个输出函数的值并将其作为增强特征,将原始特征和增强特征合并,从而形成增强验证数据集;在增强验证数据集上调用IFCM算法后,生成代表性的中心点及其对应的标签,去掉增强特征,即得到数据字典;对于任何测试样本,利用KNN方法在数据字典上找到最近的k个点,基于投票策略,确定其类标。该分类方法具有较高的分类性能、强鲁棒性和高可解释性。
-
公开(公告)号:CN115439323A
公开(公告)日:2022-12-06
申请号:CN202211044163.0
申请日:2022-08-30
Applicant: 湖州师范学院
IPC: G06T3/40 , G06V10/764 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本发明提出了一种基于渐进式增长条件生成对抗网络的图像生成方法,包括以下步骤:噪声和类别标签被传入生成器G的初始模块中生成低像素图像的特征,然后由特征转图片模块转为图像输出;判别器D接收真图像和假图像,传入图片转特征模块变为特征信息,再传入结果模块经过改进的小批量标准差方法层增加生成图像的多样性;得到的特征一部分用于判断图像的真假,一部分用于判断图像的类别;在生成器G的特征转图片模块之前和判别器D的图片转特征模块之后插入新模块,以生成更高像素的图像并提取图像特征,最终生成器G生成高分辨率的图像。该方法能够训练多个无关联的数据集,在类别不平衡或数据过于相似或不相似的数据集中均能产生高质量的图像。
-
公开(公告)号:CN118747893A
公开(公告)日:2024-10-08
申请号:CN202410856069.8
申请日:2024-06-28
Applicant: 湖州师范学院
IPC: G06V20/70 , G06V10/82 , G06N3/0455 , G06N3/0464 , G06N3/082 , G06N3/096
Abstract: 本发明公开了基于结构与指令微调大语言模型的图像字幕生成模型,通过ClipCap++模型实现,所述ClipCap++模型包括CLIP视觉编码器、键值对模块、残差连接模块、映射网络和语言模型。ClipCap++模型在进行图像字幕生成期间,可先利用对比语言‑图像预训练编码器CLIP以极大地节省训练资源和时间成本,在冻结CLIP进行预训练后引入来自few‑shot数据集的信息并存储在键值对模型中,再将预训练的视觉特征与优化的特征信息进行残差连接以防止模型对少样本数据的过拟合。对于给定的测试图像而言,ClipCap++模型在推理过程中,可先利用CLIP视觉编码器得到图像嵌入作为硬提示,再使用键值对模块构建实体感知的软提示,最后经过GPT生成图像描述。
-
公开(公告)号:CN117390578A
公开(公告)日:2024-01-12
申请号:CN202311335867.8
申请日:2023-10-16
Applicant: 湖州师范学院
IPC: G06F18/25 , G06F40/289 , G06F18/241 , G06F18/214 , G06F18/2321 , G06F18/2415
Abstract: 本发明公开了一种融合多种抽样和自注意力机制的序列建模方法,首先在自注意力层中采用多种抽样方法抽取少量且具有代表性的字符,其中包括滚雪球抽样、卡方抽样、高斯抽样等抽样方法,然后提出一种全新的位置编码方法代替原始Transformer模型的绝对位置向量编码,最后使用局部全连接层代替全局全连接层以减少参数数量。大量对比实验研究结果表明,与现有Transformer模型相比,本方法在计算效率和编码效果上都具有更好的表现。
-
公开(公告)号:CN115510812A
公开(公告)日:2022-12-23
申请号:CN202211113312.4
申请日:2022-09-14
Applicant: 湖州师范学院
IPC: G06F40/126 , G06F40/211 , G06F40/216 , G06F40/284 , G06N3/04 , G06N3/08
Abstract: 本发明提出了一种基于改进Transformer模型的超长序列处理方法,该方法的实现基于在Transformer模型的基础上进行改进所构建的WSformer模型,具体包括以下步骤:S1.WSformer模型的预训练:S1.1采用序列分割方法将超长序列分割成小序列;S1.2.基于双层注意力机制的特征提取:采用双层注意力机制进行词级特征提取和句级特征提取,得到整个序列的特征编码;S2.改进的位置向量编码:在步骤S1.2的编码过程中利用三角函数对词汇的位置编码进行调整,实现对位置向量的编码。该方法能够有效地降低长文本序列编码的时间成本,更加精确地刻画词与词之间的位置关系,实现了对长序列文本的有效建模,提高了预测精度和计算效率。
-
-
-
-
-
-
-
-
-