SYSTEM, EINRICHTUNG UND VERFAHREN FÜR EINE AUF EINEN VERTEILTEN ARBEITSSPEICHER MIT MEHREREN CHIPS ABGEBILDETE EINGABE/AUSGABE-UNTERSTÜTZUNG

    公开(公告)号:DE102020111193A1

    公开(公告)日:2020-12-24

    申请号:DE102020111193

    申请日:2020-04-24

    Applicant: INTEL CORP

    Abstract: In einer Ausführungsform umfasst ein Verfahren Folgendes: Empfangen einer Nachricht von einem Prozessor in einem Stammbaustein einer Beschleunigervorrichtung mit mehreren Bausteinen, wobei die Nachricht eine Registerschreibanforderung in ein Register eines ersten entfernten Bausteins der mehreren entfernten Bausteine umfasst; Decodieren einer Systemadresse der Nachricht in einer Endpunktsteuereinheit des Stammbausteins, um einen Zielbaustein für die Nachricht zumindest teilweise auf der Basis einer Basisadressenregisterdecodierung der Systemadresse zu identifizieren; und in Reaktion auf das Identifizieren des ersten entfernten Bausteins als Zielbaustein Aktualisieren eines ersten Abschnitts eines Adressenversatzfeldes der Systemadresse auf einen vorbestimmten Wert und Leiten der Nachricht zum ersten entfernten Baustein, der mit dem Stammbaustein über eine Seitenbandverschaltung gekoppelt ist. Andere Ausführungsformen sind beschrieben und beansprucht.

    CACHE- UND KOMPRIMIERUNGSINTEROPERABILITÄT IN EINER GRAFIKPROZESSORPIPELINE

    公开(公告)号:DE112017004246T5

    公开(公告)日:2019-05-23

    申请号:DE112017004246

    申请日:2017-07-26

    Applicant: INTEL CORP

    Abstract: Hierin beschrieben sind mehrere Ausführungsformen, die verbessertes Datencachen in Kombination mit adaptiver und dynamischer Komprimierung bereitstellen, um die Speichereffizienz zu erhöhen und die Übertragungsbandbreite der Daten während der Ein- und Ausgabe aus einer GPU verringern. Die hierin beschriebenen Techniken können die Notwendigkeit des Zugriffs auf Speicher außerhalb des Chips verhindern, was zu verbesserter Leistung und verringerter Energie für die GPU-Operationen führt. Eine Ausführungsform sieht eine Grafikverarbeitungsvorrichtung vor, die eine Shader-Engine; einen oder mehrere Cachespeicher; Cachesteuerlogik zur Steuerung von mindestens einem des einen oder der mehreren Cachespeicher; und eine Codec-Einheit, die mit dem einen oder den mehreren Cachespeichern verbunden ist, umfasst, wobei die Codec-Einheit konfigurierbar ist, nach dem Speichern auf oder der Auslagerung von dem einen oder den mehreren Cachespeichern eine verlustfreie Komprimierung von Oberflächendaten mit reinem Lesezugriff auszuführen.

    Verringern des mit Frequenzänderungen von Prozessoren verbundenen Aufwands

    公开(公告)号:DE112013005204T5

    公开(公告)日:2015-09-10

    申请号:DE112013005204

    申请日:2013-06-27

    Applicant: INTEL CORP

    Abstract: In vielen Fällen können Prozessoren eine Frequenz so häufig ändern, dass dies beträchtliche Leistungs- und Stromverbrauchsverluste zur Folge hat. Diese Leistungs- und Stromverbrauchsverluste können durch ein Ändern der Frequenz unter Verwendung einer Zusammendrucktechnik anstelle einer Phasenregelschleifen-Technik abgeschwächt werden. Die Zusammendrucktechnik beinhaltet einfach beseitigte Taktimpulse, um die Frequenz zu verringern. Dies kann schneller vorgenommen werden, was in einigen Fällen einen geringeren Aufwand zur Folge hat.

    BESCHLEUNIGER-CONTROLLER-HUB
    10.
    发明专利

    公开(公告)号:DE102021122233A1

    公开(公告)日:2022-04-28

    申请号:DE102021122233

    申请日:2021-08-27

    Applicant: INTEL CORP

    Abstract: Verfahren und Vorrichtungen für einen Beschleuniger-Controller-Hub (ACH). Der ACH kann eine eigenständige Komponente sein oder auf einem Die oder auf einem Package in einem Beschleuniger, z. B. einer GPU, integriert sein. Der ACH kann eine Host-Device-Link- (HDL-) Schnittstelle, eine oder mehrere Peripheral Component Interconnect Express- (PCIe-) Schnittstellen, eine oder mehrere High-Performance-Beschleuniger-Link- (HPAL-) Schnittstellen und einen Router umfassen, der wirksam mit jeder der HDL-Schnittstelle, der einen oder den mehreren PCIe-Schnittstellen und der einen oder den mehreren HPAL-Schnittstellen gekoppelt ist. Die HDL-Schnittstelle ist ausgebildet, über einen HDL-Link mit einer Host-CPU gekoppelt zu werden, und die eine oder die mehreren HPAL-Schnittstellen sind ausgebildet, mit einer oder mehreren HP ALs gekoppelt zu werden, die für den Zugriff auf High-Performance-Beschleuniger-Fabrics (HPAFs) wie beispielsweise NVlink-Fabrics und CCIX- (Cache Coherent Interconnect for Beschleunigers-) Fabrics verwendet werden. Plattformen umfassend ACHs oder Beschleuniger mit integrierten ACHs unterstützen RDMA-Übertragungen unter Verwendung von RDMA-Semantik, um Übertragungen zwischen Beschleuniger-Speicher auf Initiatoren und Zielen ohne CPU-Beteiligung zu ermöglichen.

Patent Agency Ranking