Credit management when resource granularity is larger than credit granularity
    1.
    发明专利
    Credit management when resource granularity is larger than credit granularity 有权
    资源质量大于信用评级时信用管理

    公开(公告)号:JP2012039661A

    公开(公告)日:2012-02-23

    申请号:JP2011239929

    申请日:2011-11-01

    CPC classification number: G06F13/385 H04L47/10 H04L47/39 H04L49/90

    Abstract: PROBLEM TO BE SOLVED: To appropriately manage credit-based flow control mechanisms for interfaces in digital systems.SOLUTION: In one embodiment, a receiver is configured to, on a credit-based flow-controlled interface, release one or more data credits before a data payload incurs a small number of unused data credits within a buffer memory that is allocated at a coarser granularity than the data credits. In another embodiment, header credits and the data credits are dynamically adjusted based on actual packet data payload sizes.

    Abstract translation: 要解决的问题:适当管理数字系统中接口的信用流量控制机制。 解决方案:在一个实施例中,接收器被配置为在基于信用的流量控制接口上释放一个或多个数据信用,在数据有效载荷在被分配的缓冲存储器内产生少量未使用的数据信用 以比数据信用更粗糙的粒度。 在另一个实施例中,基于实际分组数据有效负载大小动态地调整报头信用和数据信用。 版权所有(C)2012,JPO&INPIT

    Gestíon de créditos cuando la granularidad de los recursos es mayor que la granularidad de los créditos

    公开(公告)号:ES2414936T3

    公开(公告)日:2013-07-23

    申请号:ES11178261

    申请日:2009-12-09

    Applicant: APPLE INC

    Abstract: Un aparato que comprende: un receptor (14) que comprende una unidad de gestión de crédito (26) configurada para gestionar los créditosde control de flujo para una interfaz (20) a la que el receptor está acoplado durante el uso, en el que cadapaquete recibido en la interfaz comprende una cabecera y opcionalmente datos y en el que la cabecera semide en términos de uno o más créditos de cabecera para el control de flujo en la interfaz y en el que los datosse miden en términos de uno o más créditos de datos para el control de flujo en la interfaz, cada crédito dedatos representando un número fijo de bytes de datos; y una memoria temporal (16) acoplada al receptor y configurada para almacenar cabeceras de paquetes y datosde paquete correspondientes a los paquetes que se reciben en la interfaz por el receptor; y caracterizado por que la unidad de gestión de crédito (26) está configurada para ajustar dinámicamente unaprimera cantidad de la memoria temporal utilizada para almacenar cabeceras de los paquetes y una segundacantidad de la memoria temporal utilizada para almacenar los datos en respuesta a un tamaño de los paquetesde datos en uno o más paquetes recibidos, y en el que la unidad de gestión de crédito (26) está configuradapara liberar créditos de datos y créditos de cabecera a un transmisor (12) en la interfaz en respuesta a losajustes dinámicos, y en el que la unidad de gestión de crédito (26) está configurada para incrementar la primeracantidad y para disminuir la segunda cantidad, y en el que la unidad de gestión de crédito (26) está configuradapara retener uno o más créditos de datos correspondientes a un paquete consumido y para, en su lugar,liberar uno o más créditos de cabecera para llevar a cabo la modificación en el transmisor (12) .

    CREDIT MANAGEMENT WHEN RESOURCE GRANULARITY IS LARGER THAN CREDIT GRANULARITY

    公开(公告)号:HK1164486A1

    公开(公告)日:2012-09-21

    申请号:HK12104801

    申请日:2011-07-11

    Applicant: APPLE INC

    Abstract: In one embodiment, a receiver on a credit-based flow-controlled interface is configured to free one or more data credits early when a data payload is received that incurs fewer unused data credits within a buffer memory that is allocated at a coarser granularity than the data credits. In another embodiment, header credits and data credits are dynamically adjusted based on actual packet data payload sizes.

    CREDIT MANAGEMENT WHEN RESOURCE GRANULARITY IS LARGER THAN CREDIT GRANULARITY

    公开(公告)号:HK1153024A1

    公开(公告)日:2012-03-16

    申请号:HK11107143

    申请日:2011-07-11

    Applicant: APPLE INC

    Abstract: In one embodiment, a receiver on a credit-based flow-controlled interface is configured to free one or more data credits early when a data payload is received that incurs fewer unused data credits within a buffer memory that is allocated at a coarser granularity than the data credits. In another embodiment, header credits and data credits are dynamically adjusted based on actual packet data payload sizes.

    Gestión de créditos cuando la granularidad de los recursos es superior a la granularidad de los créditos

    公开(公告)号:ES2378211T3

    公开(公告)日:2012-04-10

    申请号:ES09801335

    申请日:2009-12-09

    Applicant: APPLE INC

    Abstract: Un dispositivo que comprende: un receptor que comprende una unidad de gestión de créditos configurado para gestionar créditos de control de flujo para una interfaz a la que se acopla el receptor durante su uso, en el que cada paquete recibido en la interfaz comprende una cabecera de paquete y opcionalmente datos de paquete, y en el que los datos de paquete se miden en términos de créditos de datos en los créditos de control de flujo en función de un tamaño de los datos de paquete, en el que cada crédito de datos representa un número fijo de bytes de datos; y una memoria tampón acoplada al receptor y configurada para almacenar cabeceras de paquete y datos de paquete correspondientes a los paquetes que son recibidos en la interfaz por el receptor, en el que la memoria tampón puede ser asignada por el receptor en unidades de memoria tampón que son N veces el tamaño del crédito de datos, en el que N es un número entero mayor que uno; y en el que un número total de créditos de datos es igual a N veces un número de unidades de memoria tampón en la memoria tampón que están disponibles para almacenar datos de paquete, y caracterizado porque la unidad de gestión de créditos se configura para reservar una pluralidad de los créditos de datos totales en base a un número máximo de créditos de datos que no son utilizables si los datos de paquete no llenan una unidad de memoria tampón y en base además a un número de paquetes que están autorizados a estar en vuelo simultáneamente, y en el que la unidad de gestión de créditos se configura para liberar uno o más créditos de datos en respuesta a la recepción de datos de paquete para un paquete dado que implica menos del número máximo de créditos de datos no utilizables, en el que la unidad de gestión de créditos se configura para liberar uno o más créditos de datos antes de que el paquete dado sea consumido.

    6.
    发明专利
    未知

    公开(公告)号:AT534083T

    公开(公告)日:2011-12-15

    申请号:AT09801335

    申请日:2009-12-09

    Applicant: APPLE INC

    Abstract: In one embodiment, a receiver on a credit-based flow-controlled interface is configured to free one or more data credits early when a data payload is received that incurs fewer unused data credits within a buffer memory that is allocated at a coarser granularity than the data credits. In another embodiment, header credits and data credits are dynamically adjusted based on actual packet data payload sizes.

    SYSTEM CACHE WITH STICKY REMOVAL ENGINE
    7.
    发明申请
    SYSTEM CACHE WITH STICKY REMOVAL ENGINE 审中-公开
    带有拆卸式发动机的系统缓存

    公开(公告)号:WO2014052589A3

    公开(公告)日:2014-08-28

    申请号:PCT/US2013061919

    申请日:2013-09-26

    Applicant: APPLE INC

    CPC classification number: G06F12/126 G06F1/3225 G06F12/0842

    Abstract: Methods and apparatuses for releasing the sticky state of cache lines for one or more group IDs. A sticky removal engine walks through the tag memory of a system cache looking for matches with a first group ID which is clearing its cache lines from the system cache. The engine clears the sticky state of each cache line belonging to the first group ID. If the engine receives a release request for a second group ID, the engine records the current index to log its progress through the tag memory. Then, the engine continues its walk through the tag memory looking for matches with either the first or second group ID. The engine wraps around to the start of the tag memory and continues its walk until reaching the recorded index for the second group ID.

    Abstract translation: 用于释放用于一个或多个组ID的高速缓存行的粘性状态的方法和装置。 粘性移除引擎遍历系统缓存的标签存储器,寻找与从系统高速缓存清除其高速缓存行的第一组ID的匹配。 引擎清除属于第一组ID的每个高速缓存行的粘性状态。 如果引擎接收到第二组ID的释放请求,则引擎记录当前索引以通过标记存储器记录其进度。 然后,引擎继续通过标签存储器查找与第一或第二组ID的匹配。 发动机卷绕到标签存储器的开头,并继续其行进直到到达第二组ID的记录索引。

    BLOCK-BASED NON-TRANSPARENT CACHE
    8.
    发明申请
    BLOCK-BASED NON-TRANSPARENT CACHE 审中-公开
    基于块的非透明缓存

    公开(公告)号:WO2011006096A3

    公开(公告)日:2011-04-07

    申请号:PCT/US2010041570

    申请日:2010-07-09

    Abstract: In an embodiment, a non-transparent memory unit is provided which includes a non-transparent memory and a control circuit. The control circuit may manage the non-transparent memory as a set of non-transparent memory blocks. Software executing on one or more processors may request a non-transparent memory block in which to process data. The control circuit may allocate a first block, and may return an address (or other indication) of the allocated block so that the software can access the block. The control circuit may also provide automatic data movement between the non-transparent memory and a main memory system to which the non-transparent memory unit is coupled. For example, the automatic data movement may include filling data from the main memory system to the allocated block, or flushing the data in the allocated block to the main memory system after the processing of the allocated block is complete.

    Abstract translation: 在一个实施例中,提供了一种非透明存储器单元,其包括非透明存储器和控制电路。 控制电路可以将非透明存储器作为一组非透明存储器块进行管理。 在一个或多个处理器上执行的软件可以请求处理数据的非透明存储器块。 控制电路可以分配第一块,并且可以返回所分配的块的地址(或其他指示),使得软件可以访问块。 控制电路还可以在非透明存储器与非透明存储器单元耦合到的主存储器系统之间提供自动数据移动。 例如,自动数据移动可以包括在分配的块的处理完成之后从主存储器系统填充数据到所分配的块,或者将分配的块中的数据刷新到主存储器系统。

Patent Agency Ranking