一种面向高性能的适应预取的智能缓存替换策略

    公开(公告)号:CN113297098B

    公开(公告)日:2023-09-01

    申请号:CN202110606031.1

    申请日:2021-05-24

    Abstract: 本发明公开一种面向高性能的适应预取的智能缓存替换策略,在存在硬件预取器的情况下,区分预取和需求请求,利用基于ISVM(Integer Support Vector Machines)的预取预测器对预取访问加载的缓存行进行重引用间隔预测,利用基于ISVM的需求预测器对需求访问加载的缓存行进行重引用间隔预测。输入当前访存的load指令的PC地址和访存历史记录中过去load指令的PC地址,针对预取和需求请求设计不同的ISVM预测器,以请求类型为粒度对加载的缓存行进行重用预测,改善存在预取时缓存行重用预测的准确度,更好的融合了硬件预取和缓存替换带来的性能提升。

    一种基于改进爬山法的非对称多核架构下预取控制策略

    公开(公告)号:CN115114189A

    公开(公告)日:2022-09-27

    申请号:CN202210750282.1

    申请日:2022-06-28

    Abstract: 本发明涉及一种基于改进爬山法的非对称多核架构下预取控制策略,属缓存预取、非对称多核领域。该方法考虑非对称多核架构下核心之间的性能不同这一情况,通过改进后的爬山法,针对不同核心对其预取激进程度进行控制,提高核心的IPC。预取激进程度由预取度和预取距离进行刻画,考虑到爬山法会陷入局部最优解,通过与模拟退火策略结合的方式跳出局部最优。同时考虑到爬山法不适用于解决二维搜索问题,本方法采用控制变量的方式,通过采样阶段的IPC反馈,进行预取策略的调整,提升核心的IPC。该方法利用爬山法,根据程序运行的不同阶段,对不同核心的预取激进程度进行调整,实现不同核心的IPC增长。

    一种基于联邦学习的移动边缘缓存优化方法

    公开(公告)号:CN114595632A

    公开(公告)日:2022-06-07

    申请号:CN202210216109.3

    申请日:2022-03-07

    Abstract: 本发明涉及一种基于有效联邦学习的移动边缘缓存优化方法,属物联网、人工智能领域。该方法考虑单基站范围内用户移动性和内容流行度不断变化的情况,通过预测内容流行度,将请求内容提前放置到边缘缓存来提高缓存命中率。具体利用RWP随机路径点模型得到用户时刻轨迹表模拟用户的移动路径,考虑到本地训练消耗,通过聚类与阈值结合的方式选择参与FL本地训练的用户,用注意力机制控制模型权重进行全局模型聚合,根据得到的全局预测模型,提前将预测的请求内容缓存到服务器来提高缓存命中率。该方法利用联邦学习方法,优化客户端选择和权重聚合,实现有效的联邦学习方法以此减少本地训练消耗,提高缓存命中率。

    一种移动边缘计算网络中多目标优化的计算卸载方法

    公开(公告)号:CN112512056A

    公开(公告)日:2021-03-16

    申请号:CN202011272786.4

    申请日:2020-11-14

    Abstract: 本发明涉及一种移动边缘计算网络中多目标优化的计算卸载方法,属物联网、人工智能领域。该方法基于面向时延和能耗的联合优化模型,通过设计智能算法GPSO实现多用户在进行任务卸载时的功率选择及按比例卸载。首先,确定移动边缘计算的网络架构,根据网络架构进行建模,模型包括系统模型、应用程序模型、通信模型、计算模型,然后根据所建立模型求解目标函数,将问题转换为混合非线性规划问题。最后,设计一种基于粒子群算法和遗传算法的分层计算算法GPSO,从而实现延迟与能耗联合优化下的用户的卸载比例策略和功率选择。该方法利用人工智能领域相关智能算法,实现移动边缘计算中多用户任务卸载策略的优化选择。

    一种基于改进模拟退火算法的片上网络映射方法

    公开(公告)号:CN108173760B

    公开(公告)日:2020-11-20

    申请号:CN201711399103.X

    申请日:2017-12-22

    Inventor: 方娟 赵浩炎 宗欢

    Abstract: 本发明公开一种基于改进模拟退火算法的片上网络映射方法,首先通过KL二分算法进行IP核到片上网络节点的映射,并将其作为模拟退火算法的初始化映射,这样就增大了模拟退火算法得到更接近最优解的解决方案的概率,然后在进行模拟退火算法,并且在模拟退火算法的迭代过程中增加记忆功能,将当前最好的状态记忆下来,以避免遗失当前最优解,从而求出全局近似最优解。通过所述映射方法,使系统的功耗得到优化。

    一种面向高性能的异构多核共享cache缓冲管理方法

    公开(公告)号:CN107463510B

    公开(公告)日:2020-05-08

    申请号:CN201710717161.6

    申请日:2017-08-21

    Abstract: 本发明公开一种面向高性能的异构多核共享cache缓冲管理方法,首先在共享末级缓存L2级Cache(LLC)的GPU侧建立一个与其结构相同的缓冲buffer,GPU消息首先访问buffer,从而达到过滤GPU流请求的目的,为CPU应用程序腾出LLC空间。在加入buffer的基础上,针对CPU应用程序和GPU应用程序不同的特性,采用合理的替换策略,增加cache命中率。最后,调整buffer的大小,根据IPC划分指标在运行前改变buffer大小,找到最优性能方案,从而达到提升系统性能的目的。

    一种基于遗传算法的异构多核处理器任务分配与调度策略

    公开(公告)号:CN111061569A

    公开(公告)日:2020-04-24

    申请号:CN201911315383.0

    申请日:2019-12-18

    Inventor: 方娟 章佳兴

    Abstract: 本发明提出了一种基于遗传算法的异构多核处理器系统的任务分配与调度策略,异构多核处理器的任务分配与调度包括全局任务调度器中的任务分配和各个处理单元上的本地调度.主要过程可以分为以下几个步骤:首先将全局任务调度器中的一个任务按照各个子任务的顺序和通信信息转换为一个有向无环图,这个有向无环图用一个DAG图表示.然后将各个子任务发送到各个处理单元,每个处理单元按照本地任务序列进行处理.最后在运行过程中使用改进的遗传算法对任务分配与调度方案进行优化.将遗传算法求解的近似最优解作为分配与调度方案,此方案可以在该任务下一次执行时直接使用,提高异构多核处理器系统的效能、节约能耗。

    一种基于缺失感知的异构多核缓存替换方法

    公开(公告)号:CN106383792B

    公开(公告)日:2019-07-12

    申请号:CN201610836077.1

    申请日:2016-09-20

    Abstract: 本发明公开一种基于缺失感知的异构多核缓存替换方法,包括:首选在异构多核的结构下,实现Ruby模式下的LRU缓存替换算法和LFU缓存替换算法;然后通过实时的、动态的比较两个替换算法的缺失数的大小,在LRU和LFU替换算法之间动态进行切换;最后在GPU应用程序所使用的缓存替换算法中,修改缓存块换入时或刚访问过时默认存放在的缓存队列中的最高位置,将GPU应用程序访问时的缓存块的优先权值降低一位。采用本发明的技术方案,提高缓存利用率来以及提升系统的性能。

    一种面向CPU-GPU异构的低能耗任务调度策略

    公开(公告)号:CN109960576A

    公开(公告)日:2019-07-02

    申请号:CN201910247244.2

    申请日:2019-03-29

    Inventor: 方娟 周宽

    Abstract: 一种面向CPU‑GPU异构的低能耗任务调度策略,针对异构多核系统的特点和传统蚁群算法存在的仅对单目标进行优化和收敛速度过慢的问题,提出一种同时关注实时约束和系统能耗的蚁群任务调度算法。方法首先根据任务在异构核心上的能耗在信息素初始化过程中提供指导信息,加快算法收敛速度,然后经过任务实时约束条件对核心的筛选后,再根据任务在异构核心上的计算能耗,不同任务的核间通信能耗以及信息素含量来选择合适的执行核心,最后通过蚁群算法的多次迭代不断寻找能耗更低的调度方案,并根据所得结果调整信息素含量,进一步加快算法收敛速度。经过若干次迭代后得到最终任务调度方案能在满足任务实时性约束的情况下使系统的能耗得到优化。

    一种基于GPU访存特性的异构多核架构缓存管理方法

    公开(公告)号:CN106250348B

    公开(公告)日:2019-02-12

    申请号:CN201610567040.3

    申请日:2016-07-19

    Abstract: 本发明公开一种基于GPU访存特性的异构多核架构缓存管理方法,首先进行消息的区分,对来自CPU和GPU核心L1 Cache的不同消息进行不同的处理;如果GPU L1 Cache请求的数据块在L2 Cache中,直接读取该数据块返回给GPU L1 Cache;如果请求的数据块不在L2 Cache中,但L2 Cache中有空闲,则从MEMORY中读取数据写入到L2 Cache中,并将数据返回给GPU L1 Cache;如果请求的数据块不在L2 Cache中,且L2 Cache中没有空闲,则直接发送请求消息给MEMORY,从MEMORY中读取消息,返回给GPU L1 Cache,并将该数据写入相应L1 Cache。本发明的方法减少了GPU应用程序所需数据在L2 Cache中的替换,将多余的空间留给CPU程序使用,提升了CPU应用程序的性能,从而提升异构多核系统的整体性能。

Patent Agency Ranking