-
公开(公告)号:CN110188192B
公开(公告)日:2023-01-31
申请号:CN201910304017.9
申请日:2019-04-16
Applicant: 西安电子科技大学
Abstract: 本发明提供了一种多任务网络构建方法,包括:对已知刑事法律文书中的案情描述及事实构成的文本进行处理,得到预处理后的文本及多个词语的词向量;采用共享网络、罪名预测及法律条文预测的特有网络构成的多任务网络对预处理后的文本及多个词语的词向量进行处理并训练,最终得到训练好的多任务网络;还提供了一种多尺度的罪名法条联合预测方法,包括:对待预测刑事法律文书中案情描述及事实构成的文本进行处理,得到预处理后的文本及多个词语的词向量,并采用训练好的多任务网络进行处理,判断得到预测的罪名及法律条文;本发明将两个任务结合起来,共同提取特征,能够有效提高预测的准确率,同时提高了预测对类别的覆盖率及多样性。
-
公开(公告)号:CN113066537B
公开(公告)日:2022-04-08
申请号:CN202110419531.4
申请日:2021-04-19
Abstract: 本发明公开了一种基于图神经网络的化合物分类方法,用于解决现有分类方法忽略了化合物分类中的结构信息导致分类结果不准确和分类效率较低的问题。本发明的步骤为:(1)构建两个图神经网络;(2)生成带有类别标签的训练集和不带有类别标签的训练集;(3)训练两个图神经网络;(4)对不包含类别标签的化合物进行分类。本发明搭建并训练了两个图神经网络,能更好地捕获化合物中所蕴含的结构信息,采用预训练、协同训练与自训练方法使得本发明在处理具有复杂信息的化合物时有着较短的处理时间和较高的化合物分类准确率。
-
公开(公告)号:CN112487359A
公开(公告)日:2021-03-12
申请号:CN202011285846.6
申请日:2020-11-17
Applicant: 西安电子科技大学
IPC: G06F17/18 , G06F30/20 , G01S5/02 , G06F111/10
Abstract: 本发明公开了一种目标位置更新延时的评估方法,包括目标位置更新延时的评估建模、对评估建模的量化;所述目标位置更新延时的建模是将目标位置更新延时定义为硬延时和软延时的组合函数,数学模型如所示,其中D表示延时,Dh表示硬延时,Ds表示软延时;所述硬延时定义为按照某种通信协议,位置数据与控制中心或云平台进行通信时经过物理和/或空间拓扑链路产生的延时;所述软延时定义为软件算法层面位置更新间隔导致的延时。本发明所提出的方法解决了当前位置更新延时无法量化评估、或评估不全面的缺陷,显著改善了通信、导航等领域位置更新延时这一指标评估的可行性和量化性,具有较大的理论研究价值和工程实践意义。
-
公开(公告)号:CN114882338B
公开(公告)日:2024-10-25
申请号:CN202210604896.9
申请日:2022-05-30
Applicant: 西安电子科技大学
IPC: G06V10/86 , G06V10/75 , G06V10/774 , G06V10/82 , G06N3/042 , G06N3/045 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于图神经网络的图像关键点匹配方法,其步骤为:构建分层注意力图神经网络;生成训练集;训练分层注意力图神经网络;对待预测的图像关键点进行匹配。本发明根据图像中的关键点坐标构造图结构数据,利用分层注意力图神经网络自适应地融合来自不同邻域范围的节点特征,使得匹配模型能够学习到更为通用的层次结构特征。本发明利用图数据增强方法,对待匹配图的节点特征进行随机遮掩来生成增强视图,并利用增强视图和原始视图之间交互式的匹配对模型进行训练,使得本发明具有较强的抗噪能力和准确的匹配精度。
-
公开(公告)号:CN117975132A
公开(公告)日:2024-05-03
申请号:CN202410127098.0
申请日:2024-01-30
Applicant: 西安电子科技大学
IPC: G06V10/764 , G06V10/774 , G06V10/762 , G06V10/82 , G06V10/94 , G06N3/0464
Abstract: 一种基于原型一致性和自标记的联邦无监督模型训练及分类方法,客户端对本地数据进行聚类,获得伪标签和本地类原型;客户端约束同一样本不同增强视图之间的一致性以及批次类原型与本地类原型之间的一致性,克服了使用正负样本进行对比学习导致的类别冲突问题;通过相邻样本之间的一致性选择高置信度样本与本地类原型进行对比学习,对学习到的无监督表示进行优化,提高了模型鲁棒性;客户端按照设计的模型更新公式利用全局模型更新本地模型,缓解了数据非独立同分布问题,提高了模型泛化性能。本发明解决了联邦对比学习方法中存在的类别冲突问题和客户端数据非独立同分布问题,提高了模型性能。
-
公开(公告)号:CN115081532A
公开(公告)日:2022-09-20
申请号:CN202210775381.5
申请日:2022-07-01
Applicant: 西安电子科技大学
Abstract: 一种基于记忆重放和差分隐私的联邦持续学习训练方法,其步骤为:中央服务器对生成对抗网络进行训练,生成一组伪图像组成伪样本集,将伪样本集与联邦学习全局网络下发给每个客户端,客户端使用记忆重放方法将下发的伪样本集与本地样本集混合训练,将训练好的联邦学习全局网络与添加差分隐私噪声的本地样本集异步地上传至中央服务器,中央服务器对上传的本地网络参数进行加权聚合并更新联邦学习全局网络,当没有新任务到达时结束训练。本发明的方法在不加重客户端计算负担的前提下,降低了客户端对旧任务知识的遗忘,保护了客户端的隐私,提高了联邦学习全局模型的训练效率。
-
公开(公告)号:CN114943345A
公开(公告)日:2022-08-26
申请号:CN202210658274.4
申请日:2022-06-10
Applicant: 西安电子科技大学
Abstract: 一种基于主动学习和模型压缩的联邦学习全局模型训练方法,其步骤为:服务器利用生成的预训练集,对构建的联邦学习全局模型进行预训练,并下发至由客户端组成的每个簇中,每个簇中客户端基于主动学习利用生成的客户端样本集,按照静态顺序依次训练下发的联邦学习全局模型,训练完成后对模型参数进行模型压缩,将压缩后的模型参数上传至服务器,服务器对上传的模型参数进行加权聚合后下发至每个簇中,当联邦学习全局模型性能达到预期目标或模型损失函数收敛时结束训练。本发明的方法在未标记且独立同分布的数据环境上提升模型精确度的同时,降低了传输过程中的通信开销。
-
公开(公告)号:CN114025304A
公开(公告)日:2022-02-08
申请号:CN202111270371.8
申请日:2021-10-29
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种定位解奇异或近似奇异问题的参数微调处理方法,包括:在直接使用最小二乘法出现定位解奇异或近似奇异问题后,统计当前可通信基站的总数n;若n小于等于经验基站数,则进行拓扑约束关系判断,找到不满足拓扑约束关系的m个基站;若n‑m大于等于最少基站数,则基于最小二乘法进行位置估计;若n‑m和n均小于最少基站数,则进行降维估计,否则在m个基站中选择q个基站,q≤m且n‑m+q≥最少基站数,对q个基站的局部坐标进行微调,然后基于最小二乘法进行位置估计;若n大于经验基站数,对所有当前可通信基站的所有坐标进行微调,然后基于最小二乘法进行位置估计。本发明能够获得可信的和比较准确的定位解。
-
公开(公告)号:CN109740154B
公开(公告)日:2021-10-26
申请号:CN201811598961.1
申请日:2018-12-26
Applicant: 西安电子科技大学
IPC: G06F40/279 , G06F40/30 , G06N3/04
Abstract: 本发明公开了一种基于多任务学习的在线评论细粒度情感分析方法,包括文本表示矩阵依次输入文本情感特征提取器、粗粒度情感特征提取器和细粒度情感特征分类器得到细粒度情感分类结果;文本情感特征提取器选择单层CNN网络对输入的文本表示矩阵进行文本情感信息的提取得到情感表示矩阵,粗粒度情感特征提取器对输入的情感表示矩阵利用多个单层CNN网络进行粗粒度情感特征的提取得到粗粒度情感特征向量,细粒度情感特征分类器对粗粒度情感特征向量利用多层全连接神经网络进行细粒度情感分类。本发明具有分类准确、训练时间短的优点,可用于多层次多粒度的互联网用户评论的情感分析,可用于个性化推荐,智能搜索或产品反馈。
-
公开(公告)号:CN112508085A
公开(公告)日:2021-03-16
申请号:CN202011407178.X
申请日:2020-12-05
Applicant: 西安电子科技大学
Abstract: 本发明公开了一种基于感知神经网络的社交网络链路预测方法,主要解决现有技术在表示节点特征时,由于缺乏对于拓扑结构和节点自身两种影响力的综合考虑,造成链路预测准确率低的问题。其实现步骤为:1)构建自注意力神经网络;2)用社交网络生成训练集,并用邻接矩阵表示;3)利用邻接矩阵计算用户节点的影响力矩阵;4)将邻接矩阵和影响力矩阵输入到自注意力神经网络,对其进行训练;5)将一个无标签待预测的社交网络输入到训练好的自注意力神经网络,得到链路预测结果。本发明增强了节点特征的表示效果,提高了社交网络链路预测的准确率,降低了模型训练过程中的训练时间和空间占用率,可用于预测大型社交媒体用户之间存在联系的可能性。
-
-
-
-
-
-
-
-
-