Datendarstellung für dynamische Genauigkeit in Kernen neuronaler Netze

    公开(公告)号:DE112019003529T5

    公开(公告)日:2021-04-15

    申请号:DE112019003529

    申请日:2019-09-25

    Applicant: IBM

    Abstract: Systeme für Neural Network Computation werden bereitgestellt. Ein Prozessor eines neuronalen Netzes weist eine Mehrzahl von neuronalen Kernen auf. Der Prozessor des neuronalen Netzes weist eine oder mehrere Prozessorgenauigkeiten pro Aktivierung auf. Der Prozessor ist dazu ausgebildet, Daten mit einer Prozessormerkmalsdimension anzunehmen. Eine Umwandlungsschaltung ist mit dem Prozessor des neuronalen Netzes verbunden und ist dazu gestaltet: einen Eingabedatentensor mit einer Eingabegenauigkeit pro Kanal bei einem oder mehreren Merkmalen zu empfangen; den Eingabedatentensor von der Eingabegenauigkeit in die Prozessorgenauigkeit umzuwandeln; die Eingabedaten in eine Mehrzahl von Blöcken zu unterteilen, wobei jeder Block einer der Prozessormerkmalsdimensionen entspricht; jeden der Mehrzahl von Blöcken für einen der Mehrzahl von neuronalen Kernen bereitzustellen. Der Prozessor des neuronalen Netzes ist dazu gestaltet, durch die Mehrzahl von neuronalen Kernen eine Ausgabe einer oder mehrerer Schichten des neuronalen Netzes zu berechnen.

    ZENTRALER SCHEDULER UND ANWEISUNGSZUTEILER FÜR EINEN NEURONALEN INFERENZPROZESSOR

    公开(公告)号:DE112019000676T5

    公开(公告)日:2020-12-03

    申请号:DE112019000676

    申请日:2019-03-28

    Applicant: IBM

    Abstract: Neuronale Inferenzprozessoren werden bereitgestellt. In verschiedenen Ausführungsformen umfasst ein Prozessor eine Mehrzahl von Kernen. Jeder Kern enthält eine neuronale Recheneinheit, einen Aktivierungsspeicher und eine lokale Steuereinheit. Die neuronale Recheneinheit ist so ausgelegt, dass sie eine Mehrzahl von synaptischen Gewichtungen auf eine Mehrzahl von Eingabeaktivierungen anwendet, um eine Mehrzahl von Ausgabeaktivierungen zu erzeugen. Der Aktivierungsspeicher ist so ausgelegt, dass er die Eingabeaktivierungen und Ausgabeaktivierungen speichert. Die lokale Steuereinheit ist so ausgelegt, dass sie die Eingabeaktivierungen von dem Aktivierungsspeicher in die neuronale Recheneinheit lädt und die Mehrzahl von Ausgabeaktivierungen von der neuronalen Recheneinheit in dem Aktivierungsspeicher speichert. Der Prozessor enthält einen Speicher für ein neuronales Netzwerkmodell, der so ausgelegt ist, dass er die Netzwerkparameter, darunter die Mehrzahl von synaptischen Gewichtungen, speichert. Der Prozessor enthält einen globalen Scheduler, der funktionsmäßig mit der Mehrzahl von Kernen verbunden und so ausgelegt ist, dass er jedem Kern die synaptischen Gewichtungen aus dem Speicher für ein neuronales Netzwerkmodell bereitstellt.

    HORIZONTALE UND VERTIKALE KONSISTENZPRÜFUNGEN ZUR VALIDIERUNG NEUROMORPHER HARDWARE

    公开(公告)号:DE102021123287A1

    公开(公告)日:2022-04-28

    申请号:DE102021123287

    申请日:2021-09-08

    Applicant: IBM

    Abstract: Bereitgestellt werden Simulation und Validierung von neuronalen Netzsystemen. Bei verschiedenen Ausführungsformen wird eine Beschreibung eines künstlichen neuronalen Netzes gelesen. Ein gerichteter Graph wird aufgebaut, der eine Mehrzahl von Kanten und eine Mehrzahl von Knoten aufweist, wobei jede der Mehrzahl von Kanten einer Warteschlange entspricht und jeder der Mehrzahl von Knoten einer Datenverarbeitungsfunktion des neuronalen Netzsystems entspricht. Ein Graphenzustand wird über eine Mehrzahl von Zeitschritten gemäß der Beschreibung des neuronalen Netzes aktualisiert, wobei der Graphenzustand durch den Inhalt jeder der Mehrzahl von Warteschlangen definiert ist. Jede der Mehrzahl von Konsistenzprüfungen wird bei jedem der Mehrzahl von Zeitschritten getestet, wobei es sich bei jeder der Mehrzahl von Konsistenzprüfungen um eine Funktion einer Teilmenge des Graphenzustands handelt. Eine Ungültigkeit des neuronalen Netzsystems wird bei jeder Verletzung einer der Mehrzahl von Konsistenzprüfungen angezeigt.

    CHIPS, DIE KONSTANTZEIT-PROGRAMMSTEUERUNG VERSCHACHTELTER SCHLEIFEN UNTERSTÜTZEN

    公开(公告)号:DE102021123286A1

    公开(公告)日:2022-04-21

    申请号:DE102021123286

    申请日:2021-09-08

    Applicant: IBM

    Abstract: Es werden Chips bereitgestellt, die eine Konstantzeit-Programmsteuerung verschachtelter Schleifen unterstützen. Bei verschiedenen Ausführungsformen weist ein Chip mindestens eine Arithmetik-Logik-Berechnungseinheit und eine Steuereinheit auf, die funktionsmäßig mit der mindestens einen Arithmetik-Logik-Berechnungseinheit verbunden ist. Die Steuereinheit ist gemäß einer Programmkonfiguration konfiguriert, wobei die Programmkonfiguration mindestens eine innere Schleife und mindestens eine äußere Schleife aufweist. Die Steuereinheit ist so konfiguriert, dass die mindestens eine Arithmetik-Berechnungseinheit veranlasst wird, eine Mehrzahl von Operationen gemäß der Programmkonfiguration auszuführen. Die Steuereinheit ist so konfiguriert, dass mindestens ein erster Schleifenzähler und ein zweiter Schleifenzähler verwaltet werden, wobei der erste Schleifenzähler so konfiguriert ist, dass eine Anzahl ausgeführter Iterationen der mindestens einen ersten äußeren Schleife gezählt wird, und der zweite Schleifenzähler so konfiguriert ist, dass eine Anzahl ausgeführter Iterationen der mindestens einen inneren Schleife gezählt wird. Die Steuereinheit ist so konfiguriert, dass eine erste Angabe darüber, ob der erste Schleifenzähler einer letzten Iteration entspricht, und eine zweite Angabe darüber bereitgestellt werden, ob der zweite Schleifenzähler einer letzten Iteration entspricht. Die Steuereinheit ist so konfiguriert, dass alternativ jeder des ersten und des zweiten Schleifenzählers gemäß der ersten und der zweiten Angabe hochgezählt, zurückgesetzt oder beibehalten wird.

    PARALLELBERECHNUNGSARCHITEKTUR MIT REKONFIGURIERBARER KERNEBENEN- UND VEKTOREBENEN-PARALLELITÄT

    公开(公告)号:DE112019002981T5

    公开(公告)日:2021-03-11

    申请号:DE112019002981

    申请日:2019-06-05

    Applicant: IBM

    Abstract: Bereitgestellt wird Verarbeitungs-Hardware eines neuronalen Netzwerks unter Verwendung von Parallelberechnungsarchitekturen mit rekonfigurierbarer Kernebenen- und Vektorebenen-Parallelität. In verschiedenen Ausführungsformen wird ein Arbeitsspeicher eines neuronalen Netzwerkmodells angepasst, um ein neuronales Netzwerkmodell zu speichern, das eine Mehrzahl von Schichten aufweist. Jede Schicht hat mindestens eine Dimension und weist eine Mehrzahl von synaptischen Gewichtungen auf. Bereitgestellt wird eine Mehrzahl von neuronalen Kernen. Jeder neuronale Kern enthält eine Berechnungseinheit und einen Aktivierungsarbeitsspeicher. Die Berechnungseinheit ist angepasst, um eine Mehrzahl von synaptischen Gewichtungen auf eine Mehrzahl von Eingabeaktivierungen anzuwenden, um eine Mehrzahl von Ausgabeaktivierungen zu erzeugen. Die Berechnungseinheit hat eine Mehrzahl von Vektoreinheiten. Der Aktivierungsarbeitsspeicher ist angepasst, um die Eingabeaktivierungen und die Ausgabeaktivierungen zu speichern. Das System ist angepasst, um die Mehrzahl von Kernen in eine Mehrzahl von Partitionen auf Grundlage von Dimensionen der Schicht und der Vektoreinheiten zu partitionieren.

Patent Agency Ranking