-
公开(公告)号:DE112013003349T5
公开(公告)日:2015-03-19
申请号:DE112013003349
申请日:2013-06-28
Applicant: IBM
Inventor: ARTHUR JOHN VERNON , MEROLLA PAUL , MODHA DHARMENDRA SHANTILAL , ALVAREZ-ICAZA RIVERA RODRIGO , CASSIDY ANDREW STEPHEN
IPC: G06N3/06
Abstract: Eine Multiplex-Schaltung mit neuronalem Kern weist eine Kernschaltung mit einer Speichereinheit auf, die neuronale Attribute für mehrere Neuronen vorhält. Die Speichereinheit weist mehrere Einträge auf. Jeder Eintrag hält neuronale Attribute für ein entsprechendes Neuron vor. Die Kernschaltung weist des Weiteren eine Steuereinheit zum Verwalten der Speichereinheit auf. In Reaktion auf neuronale Feuerungsereignisse, die an eines der Neuronen gerichtet sind, ruft die Steuereinheit neuronale Attribute für das Zielneuron von einem entsprechenden Eintrag der Speichereinheit ab und integriert die Feuerungsereignisse auf der Grundlage der abgerufenen neuronalen Attribute, um ein Feuerungsereignis für das Zielneuron zu erzeugen.
-
公开(公告)号:DE112019002061T5
公开(公告)日:2021-02-04
申请号:DE112019002061
申请日:2019-03-28
Applicant: IBM
Inventor: MODHA DHARMENDRA , ARTHUR JOHN VERNON , SAWADA JUN , ESSER STEVEN KYLE , APPUSWAMY RATHINAKUMAR , TABA BRIAN SEISHO , CASSIDY ANDREW STEPHEN , DATTA PALLAB , FLICKNER MYRON , PENNER HARTMUT , KLAMO JENNIFER
IPC: G06F15/80
Abstract: Neuronale Inferenz-Chips und Kerne werden bereitgestellt, die so ausgelegt sind, dass sie durch Parallelismus und On-Chip-Speicher zeit- und platzsparende sowie energieeffiziente neuronale Inferenz bereitstellen. In verschiedenen Ausführungsformen weisen die neuronalen Inferenz-Chips auf: eine Mehrzahl von neuronalen Kernen, die durch ein On-Chip-Netzwerk miteinander verbunden sind; einen ersten On-Chip-Speicher zum Speichern eines neuronalen Netzwerkmodells, wobei der erste On-Chip-Speicher mit jedem der Mehrzahl von Kernen durch das On-Chip-Netzwerk verbunden ist; einen zweiten On-Chip-Speicher zum Speichern von Eingabe- und Ausgabedaten, wobei der zweite On-Chip-Speicher mit jedem der Mehrzahl von Kernen durch das On-Chip-Netzwerk verbunden ist.
-
公开(公告)号:DE112019003529T5
公开(公告)日:2021-04-15
申请号:DE112019003529
申请日:2019-09-25
Applicant: IBM
Inventor: ARTHUR JOHN VERNON , CASSIDY ANDREW STEPHEN , FLICKNER MYRON , DATTA PALLAB , PENNER HARTMUT , APPUSWAMY RATHINAKUMAR , SAWADA JUN , MODHA DHARMENDRA , ESSER STEVEN KYLE , TABA BRIAN SEISHO , KLAMO JENNIFER
IPC: G06N3/06
Abstract: Systeme für Neural Network Computation werden bereitgestellt. Ein Prozessor eines neuronalen Netzes weist eine Mehrzahl von neuronalen Kernen auf. Der Prozessor des neuronalen Netzes weist eine oder mehrere Prozessorgenauigkeiten pro Aktivierung auf. Der Prozessor ist dazu ausgebildet, Daten mit einer Prozessormerkmalsdimension anzunehmen. Eine Umwandlungsschaltung ist mit dem Prozessor des neuronalen Netzes verbunden und ist dazu gestaltet: einen Eingabedatentensor mit einer Eingabegenauigkeit pro Kanal bei einem oder mehreren Merkmalen zu empfangen; den Eingabedatentensor von der Eingabegenauigkeit in die Prozessorgenauigkeit umzuwandeln; die Eingabedaten in eine Mehrzahl von Blöcken zu unterteilen, wobei jeder Block einer der Prozessormerkmalsdimensionen entspricht; jeden der Mehrzahl von Blöcken für einen der Mehrzahl von neuronalen Kernen bereitzustellen. Der Prozessor des neuronalen Netzes ist dazu gestaltet, durch die Mehrzahl von neuronalen Kernen eine Ausgabe einer oder mehrerer Schichten des neuronalen Netzes zu berechnen.
-
公开(公告)号:DE112019000676T5
公开(公告)日:2020-12-03
申请号:DE112019000676
申请日:2019-03-28
Applicant: IBM
Inventor: CASSIDY ANDREW STEPHEN , FLICKNER MYRON , DATTA PALLAB , PENNER HARTMUT , APPUSWAMY RATHINAKUMAR , SAWADA JUN , ARTHUR JOHN VERNON , MODHA DHARMENDRA , ESSER STEVEN KYLE , TABA BRIAN SEISHO , KLAMO JENNIFER
IPC: G06N3/063
Abstract: Neuronale Inferenzprozessoren werden bereitgestellt. In verschiedenen Ausführungsformen umfasst ein Prozessor eine Mehrzahl von Kernen. Jeder Kern enthält eine neuronale Recheneinheit, einen Aktivierungsspeicher und eine lokale Steuereinheit. Die neuronale Recheneinheit ist so ausgelegt, dass sie eine Mehrzahl von synaptischen Gewichtungen auf eine Mehrzahl von Eingabeaktivierungen anwendet, um eine Mehrzahl von Ausgabeaktivierungen zu erzeugen. Der Aktivierungsspeicher ist so ausgelegt, dass er die Eingabeaktivierungen und Ausgabeaktivierungen speichert. Die lokale Steuereinheit ist so ausgelegt, dass sie die Eingabeaktivierungen von dem Aktivierungsspeicher in die neuronale Recheneinheit lädt und die Mehrzahl von Ausgabeaktivierungen von der neuronalen Recheneinheit in dem Aktivierungsspeicher speichert. Der Prozessor enthält einen Speicher für ein neuronales Netzwerkmodell, der so ausgelegt ist, dass er die Netzwerkparameter, darunter die Mehrzahl von synaptischen Gewichtungen, speichert. Der Prozessor enthält einen globalen Scheduler, der funktionsmäßig mit der Mehrzahl von Kernen verbunden und so ausgelegt ist, dass er jedem Kern die synaptischen Gewichtungen aus dem Speicher für ein neuronales Netzwerkmodell bereitstellt.
-
公开(公告)号:DE112019000336T5
公开(公告)日:2020-09-17
申请号:DE112019000336
申请日:2019-03-11
Applicant: IBM
Inventor: SAWADA JUN , MODHA DHARMENDRA , ARTHUR JOHN VERNON , ESSER STEVEN KYLE , APPUSWAMY RATHINAKUMAR , TABA BRIAN SEISHO , CASSIDY ANDREW STEPHEN , DATTA PALLAB , FLICKNER MYRON , PENNER HARTMUT , KLAMO JENNIFER
IPC: G06N3/063
Abstract: Bereitgestellt werden massiv parallele neuronale Inferenz-Datenverarbeitungselemente. Eine Mehrzahl von Multiplizierern ist in einer Mehrzahl von gleich großen Gruppen angeordnet. Jeder aus der Mehrzahl von Multiplizierern ist ausgelegt, um eine Gewichtung auf eine Eingabeaktivierung parallel anzuwenden, um eine Ausgabe zu erzeugen. Eine Mehrzahl von Addierern ist mit einer der Gruppen von Multiplizierern wirkverbunden. Jeder aus der Mehrzahl von Addierern ist ausgelegt, um die Ausgaben der Multiplizierer innerhalb der ihnen jeweils zugehörigen Gruppe parallel zu addieren, um eine Partialsumme zu erzeugen. Eine Mehrzahl von Funktionsblöcken ist mit einem aus der Mehrzahl von Addierern wirkverbunden. Jeder aus der Mehrzahl von Funktionsblöcken ist ausgelegt, um eine Funktion auf die Partialsumme des ihm zugehörigen Addierers parallel anzuwenden, um einen Ausgabewert zu erzeugen.
-
公开(公告)号:DE112018004382B4
公开(公告)日:2025-04-17
申请号:DE112018004382
申请日:2018-10-12
Applicant: IBM
Inventor: CASSIDY ANDREW STEPHEN , AKOPYAN FILIPP , ARTHUR JOHN VERNON , DEBOLE MICHAEL VINCENT , MEROLLA PAUL , MODHA DHARMENDRA , SAWADA JUN
IPC: H04L49/103 , G06F12/02 , G06F12/06 , G06J1/00 , G06N3/04 , G06N3/063 , G06N3/10 , G11C7/10 , G11C11/54 , H04L49/102 , H04L49/35 , H04L49/356 , H04L49/40 , H04L49/901
Abstract: System (200; 500), aufweisend:ein Prozessorsystem mit neuronalem Netz, das durch ein Netzwerk (213; 804) miteinander verbundene Verarbeitungskerne (201-209; 805, 808) mit neuronalem Netz aufweist;eine Schnittstelle (220; 801), die funktionsmäßig mit dem Netzwerk (213; 804) verbunden ist, wobei die Schnittstelle einen Speicherbelegungsplan (101) aufweist, wobei der Speicherbelegungsplan einen ersten Bereich (702), der Eingaben in das Prozessorsystem mit neuronalem Netz entspricht, und einen zweiten Bereich (701) aufweist, der Ausgaben aus dem Prozessorsystem mit neuronalem Netz entspricht, wobei die Schnittstelle einen gemeinsamen Puffer (807) aufweist und wobeidie Schnittstelle geeignet ist zum Empfangen von Nachrichten über das Netzwerk von Verarbeitungskernen (201-209; 805, 808) mit neuronalem Netz, wobei Nachrichten Nachrichtendaten und Adressen aufweisen;die Schnittstelle geeignet ist zum Speichern der Nachrichtendaten der Nachrichten in dem gemeinsamen Puffer an Orten, die den Adressen in jeweiligen Nachrichten entsprechen.
-
公开(公告)号:AU2020395435A1
公开(公告)日:2022-05-26
申请号:AU2020395435
申请日:2020-09-29
Applicant: IBM
Inventor: CASSIDY ANDREW STEPHEN , APPUSWAMY RATHINAKUMAR , ARTHUR JOHN VERNON , DATTA PALLAB , ESSER STEVE KYLE , FLICKNER MYRON , MCKINSTRY JEFFREY , MODHA DHARMENDRA , SAWADA JUN , TABA BRIAN SEISHO
Abstract: Neural inference chips are provided. A neural core of the neural inference chip comprises a vector-matrix multiplier; a vector processor; and an activation unit operatively coupled to the vector processor. The vector-matrix multiplier, vector processor, and/or activation unit is adapted to operate at variable precision.
-
8.
公开(公告)号:DE112019002981T5
公开(公告)日:2021-03-11
申请号:DE112019002981
申请日:2019-06-05
Applicant: IBM
Inventor: CASSIDY ANDREW STEPHEN , FLICKNER MYRON , DATTA PALLAB , PENNER HARTMUT , APPUSWAMY RATHINAKUMAR , SAWADA JUN , ARTHUR JOHN VERNON , MODHA DHARMENDRA , ESSER STEVEN KYLE , TABA BRIAN SEISHO , KLAMO JENNIFER
Abstract: Bereitgestellt wird Verarbeitungs-Hardware eines neuronalen Netzwerks unter Verwendung von Parallelberechnungsarchitekturen mit rekonfigurierbarer Kernebenen- und Vektorebenen-Parallelität. In verschiedenen Ausführungsformen wird ein Arbeitsspeicher eines neuronalen Netzwerkmodells angepasst, um ein neuronales Netzwerkmodell zu speichern, das eine Mehrzahl von Schichten aufweist. Jede Schicht hat mindestens eine Dimension und weist eine Mehrzahl von synaptischen Gewichtungen auf. Bereitgestellt wird eine Mehrzahl von neuronalen Kernen. Jeder neuronale Kern enthält eine Berechnungseinheit und einen Aktivierungsarbeitsspeicher. Die Berechnungseinheit ist angepasst, um eine Mehrzahl von synaptischen Gewichtungen auf eine Mehrzahl von Eingabeaktivierungen anzuwenden, um eine Mehrzahl von Ausgabeaktivierungen zu erzeugen. Die Berechnungseinheit hat eine Mehrzahl von Vektoreinheiten. Der Aktivierungsarbeitsspeicher ist angepasst, um die Eingabeaktivierungen und die Ausgabeaktivierungen zu speichern. Das System ist angepasst, um die Mehrzahl von Kernen in eine Mehrzahl von Partitionen auf Grundlage von Dimensionen der Schicht und der Vektoreinheiten zu partitionieren.
-
公开(公告)号:AU2021251304A1
公开(公告)日:2022-09-15
申请号:AU2021251304
申请日:2021-01-28
Applicant: IBM
Inventor: SAWADA JUN , MODHA DHARMENDRA , CASSIDY ANDREW STEPHEN , ARTHUR JOHN VERNON , NAYAK TAPAN , ORTEGA OTERO CARLOS , TABA BRIAN SEISHO , AKOPYAN FILIPP , DATTA PALLAB
Abstract: Neural inference chips for computing neural activations are provided. In various embodiments, a neural inference chip comprises at least one neural core, a memory array, an instruction buffer, and an instruction memory. The instruction buffer has a position corresponding to each of a plurality of elements of the memory array. The instruction memory provides at least one instruction to the instruction buffer. The instruction buffer advances the at least one instruction between positions in the instruction buffer. The instruction buffer provides the at least one instruction to at least one of the plurality of elements of the memory array from its associated position in the instruction buffer when the memory of the at least one of the plurality of elements contains data associated with the at least one instruction. Each element of the memory array provides a data block from its memory to its horizontal buffer in response to the arrival of an associated instruction from the instruction buffer. The horizontal buffer of each element of the memory array provides a data block to the horizontal buffer of another of the elements of the memory array or to the at least one neural core.
-
10.
公开(公告)号:DE102021128932A1
公开(公告)日:2022-06-09
申请号:DE102021128932
申请日:2021-11-08
Applicant: IBM
Inventor: SAWADA JUN , FLICKNER MYRON D , CASSIDY ANDREW STEPHEN , ARTHUR JOHN VERNON , DATTA PALLAB , MODHA DHARMENDRA S , ESSER STEVEN KYLE , TABA BRIAN SEISHO , KLAMO JENNIFER , APPUSWAMY RATHINAKUMAR , AKOPYAN FILIPP , OTERO CARLOS ORTEGA
IPC: G06N3/063
Abstract: Ein neuronaler Inferenz-Chip wird bereitgestellt, der zumindest einen neuronalen Inferenzkern enthält. Der zumindest eine neuronale Inferenzkern ist dazu ausgelegt, eine Mehrzahl von synaptischen Gewichtungen auf eine Mehrzahl von Eingabeaktivierungen anzuwenden, um eine Mehrzahl von Zwischenausgaben zu erzeugen. Der zumindest eine neuronale Inferenzkern weist eine Mehrzahl von Aktivierungseinheiten auf, die dazu konfiguriert ist, die Mehrzahl von Zwischenausgaben zu empfangen und eine Mehrzahl von Aktivierungen zu erzeugen. Jede der Mehrzahl von Aktivierungseinheiten ist dazu konfiguriert, eine konfigurierbare Aktivierungsfunktion auf ihre Eingabe anzuwenden. Die konfigurierbare Aktivierungsfunktion weist zumindest einen Bereichsänderungsterm und einen Skalierungsterm auf, wobei der Bereichsänderungsterm den Bereich der Aktivierungen festlegt und der Skalierungsterm die Skalierung der Aktivierungen festlegt. Jede der Mehrzahl von Aktivierungseinheiten ist dazu konfiguriert, den Bereichsänderungsterm und den Skalierungsterm aus einer oder mehreren Umsetzungstabellen zu gewinnen.
-
-
-
-
-
-
-
-
-