METHOD AND APPARATUS FOR TLB SHOOT-DOWN IN A HETEROGENEOUS COMPUTING SYSTEM SUPPORTING SHARED VIRTUAL MEMORY
    1.
    发明申请
    METHOD AND APPARATUS FOR TLB SHOOT-DOWN IN A HETEROGENEOUS COMPUTING SYSTEM SUPPORTING SHARED VIRTUAL MEMORY 审中-公开
    支持共享虚拟内存的异构计算系统中TLB SHOOT-DOWN的方法和设备

    公开(公告)号:WO2013016345A2

    公开(公告)日:2013-01-31

    申请号:PCT/US2012047991

    申请日:2012-07-24

    Abstract: Methods and apparatus are disclosed for efficient TLB (translation look-aside buffer) shoot-downs for heterogeneous devices sharing virtual memory in a multi-core system. Embodiments of an apparatus for efficient TLB shoot-downs may include a TLB to store virtual address translation entries, and a memory management unit, coupled with the TLB, to maintain PASID (process address space identifier) state entries corresponding to the virtual address translation entries. The PASID state entries may include an active reference state and a lazy-invalidation state. The memory management unit may perform atomic modification of PASID state entries responsive to receiving PASID state update requests from devices in the multi-core system and read the lazy-invalidation state of the PASID state entries. The memory management unit may send PASID state update responses to the devices to synchronize TLB entries prior to activation responsive to the respective lazy-invalidation state.

    Abstract translation: 公开了用于在多核系统中共享虚拟存储器的异构设备的有效TLB(转换后备缓冲器)击穿的方法和装置。 用于有效的TLB击倒的装置的实施例可以包括用于存储虚拟地址转换条目的TLB和与TLB耦合的存储器管理单元,以维护对应于虚拟地址转换条目的PASID(进程地址空间标识符)状态条目 。 PASID状态条目可以包括活动参考状态和惰性无效状态。 响应于从多核系统中的设备接收到PASID状态更新请求并且读取PASID状态条目的惰性无效状态,存储器管理单元可执行PASID状态条目的原子修改。 存储器管理单元可以在响应于相应的惰性无效化状态的激活之前向设备发送PASID状态更新响应以同步TLB条目。

    METHOD AND SYSTEM FOR SAFE ENQUEUING OF EVENTS
    2.
    发明申请
    METHOD AND SYSTEM FOR SAFE ENQUEUING OF EVENTS 审中-公开
    安全事件的方法和系统

    公开(公告)号:WO2013006406A3

    公开(公告)日:2013-03-28

    申请号:PCT/US2012044837

    申请日:2012-06-29

    CPC classification number: G06F9/544 G06F9/545

    Abstract: A method and system to facilitate a user level application executing in a first processing unit to enqueue work or task(s) safely for a second processing unit without performing any ring transition. For example, in one embodiment of the invention, the first processing unit executes one or more user level applications, where each user level application has a task to be offloaded to a second processing unit. The first processing unit signals the second processing unit to handle the task from each user level application without performing any ring transition in one embodiment of the invention.

    Abstract translation: 一种促进在第一处理单元中执行的用户级应用程序以对第二处理单元安全地排队工作或任务而不执行任何环转换的方法和系统。 例如,在本发明的一个实施例中,第一处理单元执行一个或多个用户级应用,其中每个用户级应用具有卸载到第二处理单元的任务。 在本发明的一个实施例中,第一处理单元用信号通知第二处理单元来处理来自每个用户级应用的任务而不执行任何环转移。

    Systemkohärenz in einer verteilten Graphikprozessorhierarchie

    公开(公告)号:DE102015002366B4

    公开(公告)日:2024-10-17

    申请号:DE102015002366

    申请日:2015-02-25

    Applicant: INTEL CORP

    Abstract: System zum Implementieren einer Graphik-Cache-Hierarchie, wobei das System Folgendes umfasst:eine Anzeige zum Darstellen von visuellem Inhalt;einen System-Cache (12), der mit einem oder mit mehreren Host-Prozessoren (14) und mit einem Systemspeicher (18) gekoppelt ist;eine Graphikschnittstelle (22), die mit dem System-Cache (12) gekoppelt ist; undeinen Graphikprozessor (20), der mit der Graphikschnittstelle (22) gekoppelt ist, wobei der Graphikprozessor (20) Folgendes enthält:einen physikalisch verteilten Satz von Rechen-Slices (24), um mehrere Arbeitseinheiten auszuführen, die dem visuellen Inhalt zugeordnet sind, wobei jeder Rechen-Slice (24) mehrere Ausführungsblöcke (28) mit jeweils mehreren Ausführungseinheiten (34) aufweist, undeine Cache-Fabric, um eine Kohärenz einer oder mehrerer Speicherzeilen, die den mehreren Arbeitseinheiten zugeordnet sind, über den Graphikprozessor (20), den Systemspeicher (18) und den einen oder die mehreren Host-Prozessoren (14) aufrechtzuerhalten, wobei die Cache-Fabric Folgendes enthält:mehrere Caches der ersten Ebene, L1-Caches, wobei jeder L1-Cache für einen Ausführungsblock eines Rechen-Slice (24) vorgesehen ist,eine physikalisch verteilte gemeinsam genutzte Cache-Struktur (30), wobei die Kohärenz der einen oder der mehreren Speicherzeilen über die mehreren L1-Caches und die gemeinsam genutzte Cache-Struktur (30) über den physisch verteilten Satz von Rechen-Slices (24) aufrechterhalten werden soll, wobei die gemeinsam genutzte Cache-Struktur (30) einen Level-Zwei-, L2,-Cache mit einer Vielzahl von Bänken aufweist, und wobei die gemeinsam genutzte Cache-Struktur (30) dazu eingerichtet ist, mindestens eine der einen oder mehreren Speicherzeilen über die Vielzahl von Bänken zu hashen, undmehrere Kreuzschienenknoten (32) zum Verfolgen der einen oder der mehreren Speicherzeilen, wobei jeder Kreuzschienenknoten (32) für ein Rechen-Slice (24) vorgesehen ist und jeder Kreuzschienenknoten (32) der Vielzahl von Kreuzschienenknoten (32) mit dem L1-Cache jedes der Vielzahl von Ausführungsblöcken (28) des Rechen-Slice (24) verbunden ist, dem der Kreuzschienenknoten (32) zugeordnet ist, wobei die mehreren Kreuzschienenknoten (32) ferner dazu dienen, eine oder mehrere Snoop-Anforderungen, die von dem System-Cache (12) ausgehen, über die Graphikschnittstelle (22) an die gemeinsam genutzte Cache-Struktur (30) und an die mehreren L1-Caches zu verteilen, eines oder mehrere Snoop-Ergebnisse von der gemeinsam genutzten Cache-Struktur (30) und von den mehreren L1-Caches zu sammeln und das eine oder die mehreren Snoop-Ergebnisse an den System-Cache (12) zu übermitteln.

Patent Agency Ranking