一种网络地图服务中未登录地名的定位方法

    公开(公告)号:CN101110080A

    公开(公告)日:2008-01-23

    申请号:CN200710120547.5

    申请日:2007-08-21

    Applicant: 北京大学

    Abstract: 本发明提供了一种网络地图服务中未登录地名的定位方法,其首先收集所有包含用户输入的未登录地名关键词的网页,从中提取出空间数据库中登录的地址信息,根据地名关键词与登录的地址信息之间的距离计算得到空间相关度,并根据空间聚类计算对空间相关度进行修正,取空间相关度排名在前的几个地址作为定位结果在地图上标识返回给用户。本发明的方法可以在不扩展、更新地址数据的情况下,迅速有效的提供未登录地名的地址信息,并根据文字的地址信息在地图上进行定位,可以在一定程度上提高地图搜索定位服务的质量。

    一种申威架构下的改进嵌套页表内存虚拟化方法与系统

    公开(公告)号:CN114840299B

    公开(公告)日:2024-08-06

    申请号:CN202110144319.1

    申请日:2021-02-02

    Applicant: 北京大学

    Abstract: 本发明涉及一种申威架构下的改进嵌套页表内存虚拟化方法与系统。该方法包括:在查询TLB发生TLB未命中时,MMU访问四级客户机进程页表进行页表查询,在每一级的访问中,都需要首先访问NPT MMU进行嵌套页表查询,通过平滑嵌套页表将客户机物理地址转换为宿主机物理地址;在嵌套页表查询出现映射缺失时,CPU切换客户机上下文到宿主机上下文中以进行嵌套页表缺页中断处理。本发明所提出的方案基于申威架构特点尤其是可编程接口的特性,继承了传统嵌套页表模型复杂度低、页表同步开销小的优势并且消除了传统嵌套页表模型因多次页表查询而产生的访存开销;不需要复杂的硬件支持,也不会和影子页表模型一样引入额外的页表同步开销。

    一种申威架构下的内存虚拟化方法与系统

    公开(公告)号:CN112363824B

    公开(公告)日:2022-07-22

    申请号:CN202011084199.2

    申请日:2020-10-12

    Abstract: 本发明涉及一种申威架构下的内存虚拟化方法与系统。该方法包括:建立存储影子页表基地址的缓冲区;当CPU查询TLB发生TLB未命中时,CPU访问所述缓冲区获取当前进程的影子页表基地址,将影子页表基地址加载进入内存管理单元,开始页表查询;当页表查询中出现映射缺失时,CPU切换客户机上下文到宿主机上下文中以进行缺页中断处理;将缺页中断处理后获得的虚实地址转换映射直接填入相应的TLB,实现TLB预取;CPU再次查询TLB,完成客户机虚拟地址到宿主机物理地址的地址转换。本发明基于申威架构软件管理的TLB特性,实现了影子页表和TLB的同时刷新,从而实现了影子页表和客户机进程页表的同步。

    一种新型基于影子页表机制的内存虚拟化方法与系统

    公开(公告)号:CN112363960A

    公开(公告)日:2021-02-12

    申请号:CN202011085016.9

    申请日:2020-10-12

    Abstract: 本发明涉及一种新型基于影子页表机制的内存虚拟化方法与系统。该方法的步骤包括:捕获客户机操作系统发出的TLB刷新指令,并解码TLB刷新指令,以相同的粒度使相应的影子页表项无效;当CPU访问TLB发生TLB未命中时,内存管理单元查询影子页表,在发现相应的影子页表项无效后,进行缺页处理来修正影子页表;利用缺页处理后的影子页表完成客户机虚拟地址到宿主机物理地址的地址转换。本发明利用TLB与影子页表同时刷新的方式来同步影子页表与客户机进程页表,从根本上消除了传统影子页表的写保护同步开销大的弊端,同时相较于硬件辅助虚拟化技术,无需引入额外的页表查询开销,显著提高了内存虚拟化效率。

    一种基于采样的应用程序CPU末级高速缓存缺失率曲线的预测方法

    公开(公告)号:CN111258927A

    公开(公告)日:2020-06-09

    申请号:CN201911309038.6

    申请日:2019-12-18

    Abstract: 本发明提出一种基于采样的应用程序CPU末级高速缓存缺失率曲线的预测方法,属于计算机体系结构领域,包括以下步骤:让目标程序在处理器上运行,设计一组访存模式可控的微程序来访问指定末级高速缓存LLC组,与目标程序在指定LLC组发生资源竞争;通过采样收集一段时间内不同LLC组上的缓存缺失数量;通过控制微程序的访存模式改变它所占用的缓存块数量,改变目标程序所在指定LLC组上占用的缓存大小;计算未被微程序影响的LLC组上的缓存缺失数与受影响的组上缓存缺失数之差,据此得到目标程序的缺失率曲线。本方法既能消除事离线探测方法的局限性,又能避免在线预测方法对程序性能的干扰。

    一种申威架构上的虚拟机访存特征提取方法及系统

    公开(公告)号:CN110865869A

    公开(公告)日:2020-03-06

    申请号:CN201911070571.1

    申请日:2019-11-05

    Applicant: 北京大学

    Abstract: 本发明公开了一种申威架构上的虚拟机访存特征提取方法及系统,其通过“热页集”机制、“置位-中断”方法和“访存失效率曲线”构建方法,获取虚拟机访存序列的重用距离分布、内存缺页率、访内存缺页率曲线,得到虚拟机工作集大小。本发明在申威平台上首次实现了动态访存特征提取提取技术,成功地绘制高精度的内存缺失率曲线并计算出准确的工作集大小,为下一步根据工作集大小进行有效的多虚拟机内存动态调配以提高内存利用率提供基础条件。

    一种基于混合内存架构的内存系统

    公开(公告)号:CN110532200A

    公开(公告)日:2019-12-03

    申请号:CN201910792500.6

    申请日:2019-08-26

    Abstract: 一种基于混合内存架构的内存系统,包括第一存储介质、第二存储介质和内存控制器,通过内存控制器获取近期N个被访问页面的访问信息,并依据当前被访问页面的访问信息和近期N个被访问页面的访问信息,获取当前被访问页面的权重值,并依据被访问页面的权重值对该被访问页面进行热页预测,再依据被访问页面的权重值进行页面调度。由于依据访问信息中的访问次数和物理地址对被访问页面进行热页预测,使得热页预测的效率和准确率更高,进而提高内存系统的工作效率。

    一种计算机系统内存带宽调度方法、系统及存储介质

    公开(公告)号:CN110287014A

    公开(公告)日:2019-09-27

    申请号:CN201910566072.5

    申请日:2019-06-27

    Abstract: 本发明涉及数据处理技术领域,具体涉及一种计算机系统内存带宽调度方法、系统及存储介质,其中方法包括:获取当前系统物理核上运行的每个程序的性能信息和其所占用的初始带宽;对所有程序按照其所占用的初始带宽的大小进行聚类处理,将其分成带宽污染型和带宽敏感型,对带宽污染型中的至少部分程序进行限流处理,判断限流处理后系统整体的性能是否提高,若否则结束调度;若限流处理后系统整体的性能有提高,则对带宽敏感型中所有程序重新进行聚类处理,重复上述步骤,直到结束调度。本申请的内存带宽调度方法优先对占用内存带宽较大的程序进行限流,保证了多核计算机系统可以同时部署多个程序,且提高了系统整体的性能。

    一种基于局部性表达函数优化MapReduce框架的运行效率的方法和装置

    公开(公告)号:CN108153585A

    公开(公告)日:2018-06-12

    申请号:CN201711249478.8

    申请日:2017-12-01

    Applicant: 北京大学

    CPC classification number: G06F9/4881

    Abstract: 本发明涉及一种基于局部性表达函数优化MapReduce框架的运行效率的方法和装置。该方法在Map阶段之前建立局部性表达函数,局部性表达函数通过实数值的大小关系表达局部性;在Map阶段根据计算出的局部性表达函数的值进行数据的加载,将不同数据按照局部性表达函数的数值区间分配给不同的计算节点来进行运算。在多轮MapReduce任务中,将局部性表达函数的值作为中间结果附带在Map和Reduce阶段,并在各个计算节点之间传递,以迭代计算局部性表达函数的值,在达到设定的收敛阈值之后,按照局部性表达函数的数值区间进行数据的重新分布。本发明的目的是通过局部性表达函数优化MapReduce框架的运行效率。

    一种基于推迟提交的GPU虚拟化优化方法

    公开(公告)号:CN103955394B

    公开(公告)日:2017-05-17

    申请号:CN201410133294.5

    申请日:2014-04-03

    Applicant: 北京大学

    Abstract: 本发明公开了一种基于推迟提交的GPU虚拟化优化方法。本方法为:1)客户机上的GPU虚拟化框架前端读入一待执行CUDA应用程序的二进制文件,查找并标记可推迟提交的循环;2)前端执行到可推迟提交的循环部分时,直到该循环结束之前,缓存所有的CUDA函数调用信息及其依赖关系,跳过该函数调用的执行,然后在该循环结束之后将该缓存信息一次发送到宿主机上的GPU虚拟化框架后端;3)后端根据该缓存信息重新构建函数调用并执行,然后将所有任务执行结果打包一次发送回前端;可推迟提交的循环指不去执行循环中的CUDA函数调用,循环依然可以正确执行。本发明减少了前后端通信的次数,从而对GPU虚拟化的性能进行优化。

Patent Agency Ranking