Abstract:
PROBLEM TO BE SOLVED: To provide a mechanism to minimize latency impact of data to be decrypted. SOLUTION: Methods and apparatus for reducing the impact of latency associated with decrypting encrypted data are provided. Rather than wait until an entire packet of encrypted data is validated (e.g., by checking for data transfer errors), the encrypted data may be pipelined to a decryption engine as it is received, thus allowing decryption to begin prior to validation. In some cases, the decryption engine may be notified of data transfer errors detected during the validation process, in order to prevent reporting false security violations. COPYRIGHT: (C)2006,JPO&NCIPI
Abstract:
PROBLEM TO BE SOLVED: To provide a design structure embodied in a machine readable medium. SOLUTION: Embodiments of the design structure include a network on chip ('NOC'), the NOC comprising: integrated processor ('IP') blocks, routers, memory communications controllers, and network interface controllers, each IP block adapted to a router through a memory communication controller and a network interface controller, each memory communications controller controlling communication between an IP block and memory, and each network interface controller controlling inter-IP block communications through routers; the network organized into partitions, each partition including at least one IP block, each partition assigned exclusive access to a unique physical memory address space; and one or more applications performing on one or more of the partitions. COPYRIGHT: (C)2009,JPO&INPIT
Abstract:
A method, computer program product, and computer system are directed towards an online and distributed optimization framework for wireless analytics. A radio network controller 20 determines a ranking for each of a plurality of received objects using a plurality of similarity graphs. The radio network controller extracts a common structure by collaborative filtering data associated with a plurality of user devices and the plurality of received objects. The common structure is analyzed to infer usage patterns within a time slot. The radio network controller stores a subset of the ranked objects of the plurality of received objects in response to the analysis. Demand predictions across time slots for a plurality of base stations 30, 32, 34 may be made which may subsequently be used when pre-fetching data into local caches 210, 212, 214.
Abstract:
In a multiprocessor system, the processors have separate caches, each associated with a single processor. A first processor has a first directory containing an index to the cache associated with the first processor. It also has a directory containing an index to a second cache associated with a second processor. When the first processor requires a data value, it searches the indexes to see if the value is in either cache. If it is in the first cache, the first processor retrieves it from that cache. If it is in the second index, the first processor sends a request for the data to the second processor. If it is in neither cache, the processor retrieves in from a lower level cache or main memory. The first processor may inject the request into an execution unit of the second processor. The request may be queued, if it cannot be injected immediately.
Abstract:
In einer Multithread-Grafikverarbeitungsarchitektur verwendete, häufig genutzte Zustandsdaten werden in einer Vektorregisterdatei einer Verarbeitungseinheit zwischengespeichert, um Zugriffe auf die Zustandsdaten zu optimieren und die damit verbundene Verwendung des Speicherbusses zu minimieren. Eine Verarbeitungseinheit kann eine Festkomma-Ausführungseinheit sowie eine Vektor-Gleitkomma-Ausführungseinheit enthalten, und eine von der Vektor-Gleitkomma-Ausführungseinheit verwendete Vektorregisterdatei kann dazu verwendet werden, von der Festkomma-Ausführungseinheit verwendete und nach Bedarf in die Universalregister übertragene Zustandsdaten zwischenzuspeichern, wodurch der Bedarf für das wiederholte Abrufen und Zurückschreiben der Zustandsdaten von und in einen L1-Cachespeicher oder einen Cachespeicher auf niedrigerer Ebene, auf den die Festkomma-Ausführungseinheit zugreift, verringert wird.
Abstract:
In einer Multithread-Grafikverarbeitungsarchitektur verwendete, häufig genutzte Zustandsdaten werden in einer Vektorregisterdatei einer Verarbeitungseinheit zwischengespeichert, um Zugriffe auf die Zustandsdaten zu optimieren und die damit verbundene Verwendung des Speicherbusses zu minimieren. Eine Verarbeitungseinheit kann eine Festkomma-Ausführungseinheit sowie eine Vektor-Gleitkomma-Ausführungseinheit enthalten, und eine von der Vektor-Gleitkomma-Ausführungseinheit verwendete Vektorregisterdatei kann dazu verwendet werden, von der Festkomma-Ausführungseinheit verwendete und nach Bedarf in die Universalregister übertragene Zustandsdaten zwischenzuspeichern, wodurch der Bedarf für das wiederholte Abrufen und Zurückschreiben der Zustandsdaten von und in einen L1-Cachespeicher oder einen Cachespeicher auf niedrigerer Ebene, auf den die Festkomma-Ausführungseinheit zugreift, verringert wird.
Abstract:
A method and circuit arrangement selectively stream data to an encryption or compression engine based upon encryption and/or compression-related page attributes stored in a memory address translation data structure such as an Effective To Real Translation (ERAT) or Translation Lookaside Buffer (TLB). A memory address translation data structure may be accessed, for example, in connection with a memory access request for data in a memory page, such that attributes associated with the memory page in the data structure may be used to control whether data is encrypted/decrypted and/or compressed/decompressed in association with handling the memory access request.
Abstract:
Ein Verfahren und eine Schaltungsanordnung verwenden ein integriertes Verschlüsselungsmodul innerhalb eines Verarbeitungskerns eines Mehrfachkern-Prozessors, um Verschlüsselungsoperationen, d. h. Verschlüsseln und Entschlüsseln sicherer Daten, in Verbindung mit auf solche Daten zugreifenden Speicherzugriffsanfragen durchzuführen. Das integrierte Verschlüsselungsmodul wird in Kombination mit einer Speicheradressumsetzungs-Datenstruktur als Effective-To-Real-Translation (ERAT) oder Translation Lookaside Buffer (TLB) verwendet, die um verschlüsselungsbezogene Seitenattribute erweitert wurde, um anzuzeigen, welche in der Datenstruktur gekennzeichneten Speicherseiten verschlüsselt sind, so dass mit einer Speicherzugriffsanfrage verbundene sichere Daten im Verarbeitungskern auf der Grundlage des verschlüsselungsbezogenen Seitenattributs für die mit der Speicherzugriffsanfrage verbundene Speicherseite selektiv an das integrierte Verschlüsselungsmodul gestreamt werden können.
Abstract:
Ein Hypervisor und ein oder mehrere Programme, z. B. Guest-Betriebssysteme und/oder Benutzerprozessoren oder von dem Hypervisor gehostete Anwendungen sind so konfiguriert, dass sie selektiv über separate Hypervisor-Modus- und Guest-Modus- und/oder Benutzermodus-Anweisungen die Zustände der Sprungvorhersage-Logik speichern und wiederherstellen. Dadurch können unterschiedliche Sprungvorhersage-Strategien für unterschiedliche gehostete Betriebssysteme und Benutzeranwendungen verwendet werden, wodurch ein differenzierteres Optimieren der Sprungvorhersage-Logik gewährleistet werden kann.
Abstract:
Schaltkreisanordnung, die Folgendes umfasst:Network-on-Chip-Hardware-Logik, die eine Vielzahl von eine Vielzahl von Hardware-Threads festlegenden Verarbeitungskernen und ein chipintegriertes Netzwerk enthält, das die Vielzahl von Verarbeitungskernen miteinander verbindet; undeine von mindestens einem Teil der Vielzahl von Hardware-Threads ausgeführte Physik-Engine, wobei die Physik-Engine eine Multithread-Software-Pipeline enthält, die eine Vielzahl von Stufen enthält, die so konfiguriert sind, dass sie Zusammenstöße zwischen Objekten aus einer Vielzahl von Objekten in einer Szene erkennen, sowie eine Vielzahl von Impuls-Weiterleitungs-Threads enthält, die so konfiguriert sind, dass sie Impulse zwischen einer Reihe von benachbarten Objekten aus der Vielzahl von sich berührenden Objekten weiterleiten;wobei die Physik-Engine so konfiguriert ist, dass sie für jedes aus der Reihe von benachbarten Objekten den Besitz an dem Objekt einem der Vielzahl von Impuls-Weiterleitungs-Threads zuweist und eine Tabelle über benachbarte Objekte für den Impuls-Weiterleitungs-Thread erzeugt, dem das Objekt zugewiesen ist, die jedes Objekt aus der Reihe von benachbarten Objekten identifiziert, die das Objekt berührt;wobei die Physik-Engine so konfiguriert ist, dass sie als Reaktion auf einen erkannten Zusammenstoß mit einem ersten Objekt aus der Reihe von benachbarten Objekten eine erste thread-übergreifende Impulsnachricht erzeugt, die eine Größenordnung und eine Richtung enthält;wobei jeder Impuls-Weiterleitungs-Thread unter der Vielzahl von Impuls-Weiterleitungs-Threads so konfiguriert ist, dass er als Reaktion auf das Empfangen einer einem Impuls zugehörigen thread-übergreifenden Impulsnachricht den Impuls lokal durch ein Objekt weiterleitet, dessen Besitz dem Impuls-Weiterleitungs-Thread zugewiesen ist, für jedes in der Tabelle über benachbarte Objekte für den Impuls-Weiterleitungs-Thread identifizierte benachbarte Objekt eine Größenordnung und eine Richtung einer weitergeleiteten Kraft ermittelt, den Impuls für jedes in der Tabelle über benachbarte Objekte für den Impuls-Weiterleitungs-Thread identifizierte benachbarte Objekt an den Impuls-Weiterleitungs-Thread weiterleitet, indem er eine thread-übergreifende Impulsnachricht an diesen sendet, welche die dafür ermittelte Größenordnung und Richtung der weitergeleiteten Kraft enthält, eine thread-übergreifende Impulsbestätigungsnachricht von jedem benachbarten Objekt empfängt, das in der Tabelle über benachbarte Objekte für den Impuls-Weiterleitungs-Thread identifiziert wurde,eine Größenordnung und eine Richtung einer Reaktionskraft zumindest teilweise beruhend auf den thread-übergreifenden Impulsbestätigungsnachrichten ermittelt und eine thread-übergreifende Impulsbestätigungsnachricht mit der Größenordnung und Richtung der Reaktionskraft als Bestätigung für die empfangene thread-übergreifende Impulsnachricht sendet, undwobei die Physik-Engine so konfiguriert ist, dass sie als Reaktion auf das Erkennen eines zukünftigen Zusammenstoßes zwischen Objekten in einer Szene eine Neuzuordnung der Arbeitslast unter der Vielzahl von Impuls-Weiterleitungs-Threads wahlweise in Abhängigkeit von Objekteigenschaften der als zukünftig zusammenstoßend erkannten Objekten einleitet,