-
公开(公告)号:CN118568117A
公开(公告)日:2024-08-30
申请号:CN202410556932.8
申请日:2024-05-07
Applicant: 北京邮电大学 , 国网山东省电力公司菏泽供电公司 , 北京智芯微电子科技有限公司
IPC: G06F16/242 , G06F16/27 , G06F16/248 , G06Q50/06
Abstract: 本发明实施例提供一种能源区块链高频数据的查询方法和装置,该方法包括:在能源数据的查询信息为连续值的情况下,将查询信息的Z‑order编码和目标区块对应的MBZ树中的键值进行匹配,确定查询信息对应的能源数据的查询结果;和/或,在能源数据查询信息为离散值的情况下,将查询信息对应的nibble序列和目标区块对应的MBZ树中的键值进行匹配,确定查询信息对应的能源数据的查询结果。本发明实施例的方法有效地提升能源区块链高频数据的查询效率。
-
公开(公告)号:CN114358307B
公开(公告)日:2025-04-04
申请号:CN202111447012.5
申请日:2021-11-30
Applicant: 北京邮电大学
Abstract: 本申请实施例提供基于差分隐私法的联邦学习方法及装置,其中的基于差分隐私法的联邦学习方法包括:基于当前接收的用于进行联邦学习的多份训练数据中任一份对应的阶段完成信号,开始监测目标周期内的信号接收情况数据;若监测到目标周期内的信号接收情况数据满足预设的半同步训练规则,则获取目标周期内接收的各个阶段完成信号各自对应的阶段训练结果数据,并基于差分隐私法及各个阶段训练结果数据训练目标模型。本申请能够在为目标模型的联邦学习过程提供差分隐私保护的前提下,有效避免掉队者效应的干扰,避免计算资源的浪费并能够提高目标模型的收敛速度,进而能够有效提高目标模型的训练效率及应用及时性。
-
公开(公告)号:CN114428852B
公开(公告)日:2024-09-13
申请号:CN202210032641.X
申请日:2022-01-12
Applicant: 北京邮电大学
IPC: G06F16/34 , G06F40/289 , G06F40/216 , G06N3/0455 , G06N3/088
Abstract: 本发明提供一种基于BERT预训练模型的中文文本摘要抽取方法及装置,所述方法包括:获取待抽取文本并基于LDA融合算法待抽取文本的关键词;将所述待抽取文本输入至BERT预训练语言模型中,得到所述待抽取文本固定维度的句向量;其中,所述BERT预训练语言模型通过对多个文本样本以及对应的样本句向量生成结果训练获取;对所述句向量进行权重计算并基于所述关键词进行权重修正,得到所述待抽取文本的文本摘要。本发明能够通过关键词反映文本的上下文语义,从而提高文本摘要的质量。
-
公开(公告)号:CN113065866B
公开(公告)日:2022-07-22
申请号:CN202110307660.4
申请日:2021-03-23
Applicant: 北京邮电大学 , 北京驱云科技有限公司
Abstract: 本发明实施例提供了一种基于区块链的物联网边缘计算系统及方法,该系统包括:用户终端,边缘训练节点,以及边缘聚合节点;用户终端,获取以及发送物联网的设备数据给边缘训练节点;边缘训练节点,利用所接收的设备数据,获取以及加密设备数据对应的服务的参数;利用边缘区块链将加密后的参数共享给边缘聚合节点;边缘聚合节点,获取并解密多个加密后的参数,对多个解密后的参数进行聚合得到优化参数;利用边缘区块链将优化参数共享给边缘训练节点;边缘训练节点,将优化参数发送给用户终端;用户终端,利用优化参数对优化参数对应的服务进行优化。本方案可以兼顾扩展边缘计算的应用场景,以及避免边缘计算的数据不一致和数据泄露。
-
公开(公告)号:CN114358120A
公开(公告)日:2022-04-15
申请号:CN202111452498.1
申请日:2021-11-30
Applicant: 北京邮电大学
IPC: G06K9/62 , G06N20/00 , G06N3/08 , G06F21/62 , G06V10/94 , G06V10/762 , G06V10/774 , G06V10/82 , G06V40/16
Abstract: 本申请实施例提供数据摘要生成方法、模型训练方法、相关装置及系统,其中的数据摘要生成方法包括:根据接收的全局模型的模型参数以及本地的训练数据所属的模型训练贡献层级,自适应生成本地的训练数据对应的数据摘要,其中,本地的训练数据与多份非本地的训练数据分布式设置,且各份训练数据各自所属的模型训练贡献层级为预先对各份训练数据分别进行分层聚类而得;输出本地的训练数据对应的数据摘要以基于各份训练数据各自对应的数据摘要共同训练全局模型。本申请能够有效提高生成数据摘要的针对性及自适应性,并能够提高数据摘要在分布式学习过程中的有效性及可靠性,进而能够有效提高使用数据摘要训练得到的全局模型的应用有效性及准确性。
-
公开(公告)号:CN114491623B
公开(公告)日:2024-06-07
申请号:CN202111653752.4
申请日:2021-12-30
Applicant: 北京邮电大学
IPC: G06F21/62 , G06F21/64 , G06F18/214 , G06N20/20
Abstract: 本发明提供一种基于区块链的异步联邦学习方法及系统,在联邦学习的基础上引入区块链网络,选取声誉较高的边缘设备节点作为议会节点用于模型的聚合和对所有节点的声誉更新,以实现联邦学习过程的去中心化;将全局模型发送至边缘设备,利用边缘设备产生的丰富数据进行训练并返回对全局模型的更新参数,并基于议会节点分别进行模型聚合、声誉更新并进行共识认证,最终在共识成功的条件下实现完整的联邦学习。所述方法在模型训练过程中,边缘设备的数据不离开本地,降低数据泄漏风险,保护用户隐私;基于区块链网络和共识算法去中心化,避免单点故障,提高系统鲁棒性和拓展性。
-
公开(公告)号:CN114449000A
公开(公告)日:2022-05-06
申请号:CN202111625652.0
申请日:2021-12-28
Applicant: 北京邮电大学
IPC: H04L67/1097 , H04L9/40 , H04L9/32 , H04L9/06 , G06F16/27 , G06F16/2455 , G06F21/60 , G06F21/64 , G06F21/62 , G06F11/14
Abstract: 本发明提供一种车辆网数据共识优化存储方法及存储系统,所述方法提出了分层PBFT共识算法,通过对区块链网络设置多个共识集群,各共识集群按照树状结构连接形成由下至上多个共识层,上层共识层中的每个节点都作为主节点连接下一层共识层中一个共识集群,形成多层共识层,车辆产生的行驶数据从下至上逐层进行共识认证,降低共识时间和通信复杂度,减少车辆数据从产生到存储时造成的通信开销并确保数据真实无误的得到存储。在共识成功的结果后,对数据进行分布式存储,并通过分配表记录存储位置,用于精确查找。
-
公开(公告)号:CN114358307A
公开(公告)日:2022-04-15
申请号:CN202111447012.5
申请日:2021-11-30
Applicant: 北京邮电大学
Abstract: 本申请实施例提供基于差分隐私法的联邦学习方法及装置,其中的基于差分隐私法的联邦学习方法包括:基于当前接收的用于进行联邦学习的多份训练数据中任一份对应的阶段完成信号,开始监测目标周期内的信号接收情况数据;若监测到目标周期内的信号接收情况数据满足预设的半同步训练规则,则获取目标周期内接收的各个阶段完成信号各自对应的阶段训练结果数据,并基于差分隐私法及各个阶段训练结果数据训练目标模型。本申请能够在为目标模型的联邦学习过程提供差分隐私保护的前提下,有效避免掉队者效应的干扰,避免计算资源的浪费并能够提高目标模型的收敛速度,进而能够有效提高目标模型的训练效率及应用及时性。
-
公开(公告)号:CN114546636B
公开(公告)日:2025-04-04
申请号:CN202111666577.2
申请日:2021-12-31
Applicant: 北京邮电大学
IPC: G06F9/50 , G06F21/64 , G06F18/214
Abstract: 本申请提供了一种数据交互系统和去中心化边缘模型训练验证方法,其中,该数据交互系统包括:物理网络层,由数据生产者边缘设备构成,用于收集和存储边缘设备生产的数据,并将数据上传至链下存储层;链下存储层,由具备存储资源的节点构成,用于接收物理网络层的数据,并根据接收的数据生成数据摘要,将数据摘要上传至区块链边缘层;区块链边缘层,由边缘节点组成的区块链网络构成,用于数据共享;可验证计算层,用于进行任务结果的准确性验证。通过上述方案解决了现有的无法对边缘计算外包结果进行有效验证的问题,实现了数据在边缘网络中的高效流通,达到了简单高效对边缘数据进行有效性验证的技术效果。
-
公开(公告)号:CN113065641B
公开(公告)日:2023-09-26
申请号:CN202110304132.3
申请日:2021-03-22
Applicant: 北京邮电大学 , 北京驱云科技有限公司
IPC: G06N3/04 , G06N3/08 , G06V10/26 , G06V10/764 , G06V10/774 , G06V10/82
Abstract: 本申请实施例提供的神经网络模型训练方法、装置、电子设备及存储介质,应用于信息技术领域,通过根据预设的多组分割点将待训练的图像分类网络模型分割为多组子网络模型;针对各组子网络模型,通过预设损失函数分别计算对应的损失;针对各组子网络模型,根据计算得到的损失进行联合训练,得到多组待输出子网络模型;针对各组子网络模型,分别计算各待输出子网络模型对应的多项性能参数;根据各组子网络模型对应的多项性能参数,通过预设熵权模型,分别计算各组子网络模型对应的综合性能得分;选取各组子网络模型中综合性能得分最高的一组作为目标子网络模型。可以按照目标子网络模型进行图像分类网络模型的部署,从而提高神经网络部署的便利性。
-
-
-
-
-
-
-
-
-