-
公开(公告)号:AU2021251304A1
公开(公告)日:2022-09-15
申请号:AU2021251304
申请日:2021-01-28
Applicant: IBM
Inventor: SAWADA JUN , MODHA DHARMENDRA , CASSIDY ANDREW STEPHEN , ARTHUR JOHN VERNON , NAYAK TAPAN , ORTEGA OTERO CARLOS , TABA BRIAN SEISHO , AKOPYAN FILIPP , DATTA PALLAB
Abstract: Neural inference chips for computing neural activations are provided. In various embodiments, a neural inference chip comprises at least one neural core, a memory array, an instruction buffer, and an instruction memory. The instruction buffer has a position corresponding to each of a plurality of elements of the memory array. The instruction memory provides at least one instruction to the instruction buffer. The instruction buffer advances the at least one instruction between positions in the instruction buffer. The instruction buffer provides the at least one instruction to at least one of the plurality of elements of the memory array from its associated position in the instruction buffer when the memory of the at least one of the plurality of elements contains data associated with the at least one instruction. Each element of the memory array provides a data block from its memory to its horizontal buffer in response to the arrival of an associated instruction from the instruction buffer. The horizontal buffer of each element of the memory array provides a data block to the horizontal buffer of another of the elements of the memory array or to the at least one neural core.
-
公开(公告)号:DE112018004382T5
公开(公告)日:2020-05-14
申请号:DE112018004382
申请日:2018-10-12
Applicant: IBM
Inventor: CASSIDY ANDREW STEPHEN , AKOPYAN FILIPP , ARTHUR JOHN VERNON , DEBOLE MICHAEL VINCENT , MEROLLA PAUL , MODHA DHARMENDRA , SAWADA JUN
IPC: H04L45/02
Abstract: Es werden speicherbezogene Schnittstellen für Nachrichtenübergabe-Datenverarbeitungssysteme bereitgestellt. Gemäß verschiedenen Ausführungsformen wird eine Schreibanforderung empfangen. Die Schreibanforderung weist Schreibdaten und eine Schreibadresse auf. Bei der Schreibadresse handelt es sich um eine Speicheradresse innerhalb eines Speicherbelegungsplans. Die Schreibadresse wird in eine neuronale Netzadresse übersetzt. Die neuronale Netzadresse kennzeichnet mindestens einen Eingabeort eines neuronalen Ziel-Netzes. Die Schreibdaten werden über ein Netzwerk gemäß der neuronalen Netzadresse an den mindestens einen Eingabeort des neuronalen Ziel-Netzes gesendet. Über das Netzwerk wird eine Nachricht von einem neuronalen Quell-Netz empfangen. Die Nachricht weist Daten und mindestens eine Adresse auf. Ein Ort in einem Puffer wird auf der Grundlage der mindestens einen Adresse ermittelt. Die Daten werden an dem Ort in dem Puffer gespeichert. Der Puffer ist über den Speicherbelegungsplan zugänglich.
-
公开(公告)号:AU2020369825A1
公开(公告)日:2022-03-31
申请号:AU2020369825
申请日:2020-10-01
Applicant: IBM
Inventor: CASSIDY ANDREW , AKOPYAN FILIPP , APPUSWAMY RATHINAKUMAR , ARTHUR JOHN , DATTA PALLAB , DEBOLE MICHAEL , ESSER STEVE , FLICKNER MYRON , MODHA DHARMENDRA , ORTEGA OTERO CARLOS , SAWADA JUN
Abstract: Three-dimensional neural inference processing units are provided. A first tier comprises a plurality of neural cores. Each core comprises a neural computation unit. The neural computation unit is adapted to apply a plurality of synaptic weights to a plurality of input activations to produce a plurality of output activations. A second tier comprises a first neural network model memory adapted to store the plurality of synaptic weights. A communication network is operatively coupled to the first neural network model memory and to each of the plurality of neural cores, and adapted to provide the synaptic weights from the first neural network model memory to each of the plurality of neural cores.
-
公开(公告)号:DE112019002061T5
公开(公告)日:2021-02-04
申请号:DE112019002061
申请日:2019-03-28
Applicant: IBM
Inventor: MODHA DHARMENDRA , ARTHUR JOHN VERNON , SAWADA JUN , ESSER STEVEN KYLE , APPUSWAMY RATHINAKUMAR , TABA BRIAN SEISHO , CASSIDY ANDREW STEPHEN , DATTA PALLAB , FLICKNER MYRON , PENNER HARTMUT , KLAMO JENNIFER
IPC: G06F15/80
Abstract: Neuronale Inferenz-Chips und Kerne werden bereitgestellt, die so ausgelegt sind, dass sie durch Parallelismus und On-Chip-Speicher zeit- und platzsparende sowie energieeffiziente neuronale Inferenz bereitstellen. In verschiedenen Ausführungsformen weisen die neuronalen Inferenz-Chips auf: eine Mehrzahl von neuronalen Kernen, die durch ein On-Chip-Netzwerk miteinander verbunden sind; einen ersten On-Chip-Speicher zum Speichern eines neuronalen Netzwerkmodells, wobei der erste On-Chip-Speicher mit jedem der Mehrzahl von Kernen durch das On-Chip-Netzwerk verbunden ist; einen zweiten On-Chip-Speicher zum Speichern von Eingabe- und Ausgabedaten, wobei der zweite On-Chip-Speicher mit jedem der Mehrzahl von Kernen durch das On-Chip-Netzwerk verbunden ist.
-
5.
公开(公告)号:DE112017002931T5
公开(公告)日:2019-03-14
申请号:DE112017002931
申请日:2017-09-26
Applicant: IBM
Inventor: MODHA DHARMENDRA
IPC: G06N3/02
Abstract: Ein skalierbarer Supercomputer mit skalierbarem Fluss für neuronale Netze mit äußerstem Durchsatz wird bereitgestellt. Der Abfeuerzustand einer Mehrzahl von Neuronen eines ersten neurosynaptischen Kerns wird im Wesentlichen parallel bestimmt. Der Abfeuerzustand der Mehrzahl von Neuronen wird an mindestens einen zusätzlichen neurosynaptischen Kern im Wesentlichen parallel geliefert.
-
公开(公告)号:DE112019003529T5
公开(公告)日:2021-04-15
申请号:DE112019003529
申请日:2019-09-25
Applicant: IBM
Inventor: ARTHUR JOHN VERNON , CASSIDY ANDREW STEPHEN , FLICKNER MYRON , DATTA PALLAB , PENNER HARTMUT , APPUSWAMY RATHINAKUMAR , SAWADA JUN , MODHA DHARMENDRA , ESSER STEVEN KYLE , TABA BRIAN SEISHO , KLAMO JENNIFER
IPC: G06N3/06
Abstract: Systeme für Neural Network Computation werden bereitgestellt. Ein Prozessor eines neuronalen Netzes weist eine Mehrzahl von neuronalen Kernen auf. Der Prozessor des neuronalen Netzes weist eine oder mehrere Prozessorgenauigkeiten pro Aktivierung auf. Der Prozessor ist dazu ausgebildet, Daten mit einer Prozessormerkmalsdimension anzunehmen. Eine Umwandlungsschaltung ist mit dem Prozessor des neuronalen Netzes verbunden und ist dazu gestaltet: einen Eingabedatentensor mit einer Eingabegenauigkeit pro Kanal bei einem oder mehreren Merkmalen zu empfangen; den Eingabedatentensor von der Eingabegenauigkeit in die Prozessorgenauigkeit umzuwandeln; die Eingabedaten in eine Mehrzahl von Blöcken zu unterteilen, wobei jeder Block einer der Prozessormerkmalsdimensionen entspricht; jeden der Mehrzahl von Blöcken für einen der Mehrzahl von neuronalen Kernen bereitzustellen. Der Prozessor des neuronalen Netzes ist dazu gestaltet, durch die Mehrzahl von neuronalen Kernen eine Ausgabe einer oder mehrerer Schichten des neuronalen Netzes zu berechnen.
-
公开(公告)号:DE112019000676T5
公开(公告)日:2020-12-03
申请号:DE112019000676
申请日:2019-03-28
Applicant: IBM
Inventor: CASSIDY ANDREW STEPHEN , FLICKNER MYRON , DATTA PALLAB , PENNER HARTMUT , APPUSWAMY RATHINAKUMAR , SAWADA JUN , ARTHUR JOHN VERNON , MODHA DHARMENDRA , ESSER STEVEN KYLE , TABA BRIAN SEISHO , KLAMO JENNIFER
IPC: G06N3/063
Abstract: Neuronale Inferenzprozessoren werden bereitgestellt. In verschiedenen Ausführungsformen umfasst ein Prozessor eine Mehrzahl von Kernen. Jeder Kern enthält eine neuronale Recheneinheit, einen Aktivierungsspeicher und eine lokale Steuereinheit. Die neuronale Recheneinheit ist so ausgelegt, dass sie eine Mehrzahl von synaptischen Gewichtungen auf eine Mehrzahl von Eingabeaktivierungen anwendet, um eine Mehrzahl von Ausgabeaktivierungen zu erzeugen. Der Aktivierungsspeicher ist so ausgelegt, dass er die Eingabeaktivierungen und Ausgabeaktivierungen speichert. Die lokale Steuereinheit ist so ausgelegt, dass sie die Eingabeaktivierungen von dem Aktivierungsspeicher in die neuronale Recheneinheit lädt und die Mehrzahl von Ausgabeaktivierungen von der neuronalen Recheneinheit in dem Aktivierungsspeicher speichert. Der Prozessor enthält einen Speicher für ein neuronales Netzwerkmodell, der so ausgelegt ist, dass er die Netzwerkparameter, darunter die Mehrzahl von synaptischen Gewichtungen, speichert. Der Prozessor enthält einen globalen Scheduler, der funktionsmäßig mit der Mehrzahl von Kernen verbunden und so ausgelegt ist, dass er jedem Kern die synaptischen Gewichtungen aus dem Speicher für ein neuronales Netzwerkmodell bereitstellt.
-
公开(公告)号:DE112019000336T5
公开(公告)日:2020-09-17
申请号:DE112019000336
申请日:2019-03-11
Applicant: IBM
Inventor: SAWADA JUN , MODHA DHARMENDRA , ARTHUR JOHN VERNON , ESSER STEVEN KYLE , APPUSWAMY RATHINAKUMAR , TABA BRIAN SEISHO , CASSIDY ANDREW STEPHEN , DATTA PALLAB , FLICKNER MYRON , PENNER HARTMUT , KLAMO JENNIFER
IPC: G06N3/063
Abstract: Bereitgestellt werden massiv parallele neuronale Inferenz-Datenverarbeitungselemente. Eine Mehrzahl von Multiplizierern ist in einer Mehrzahl von gleich großen Gruppen angeordnet. Jeder aus der Mehrzahl von Multiplizierern ist ausgelegt, um eine Gewichtung auf eine Eingabeaktivierung parallel anzuwenden, um eine Ausgabe zu erzeugen. Eine Mehrzahl von Addierern ist mit einer der Gruppen von Multiplizierern wirkverbunden. Jeder aus der Mehrzahl von Addierern ist ausgelegt, um die Ausgaben der Multiplizierer innerhalb der ihnen jeweils zugehörigen Gruppe parallel zu addieren, um eine Partialsumme zu erzeugen. Eine Mehrzahl von Funktionsblöcken ist mit einem aus der Mehrzahl von Addierern wirkverbunden. Jeder aus der Mehrzahl von Funktionsblöcken ist ausgelegt, um eine Funktion auf die Partialsumme des ihm zugehörigen Addierers parallel anzuwenden, um einen Ausgabewert zu erzeugen.
-
公开(公告)号:DE112018004382B4
公开(公告)日:2025-04-17
申请号:DE112018004382
申请日:2018-10-12
Applicant: IBM
Inventor: CASSIDY ANDREW STEPHEN , AKOPYAN FILIPP , ARTHUR JOHN VERNON , DEBOLE MICHAEL VINCENT , MEROLLA PAUL , MODHA DHARMENDRA , SAWADA JUN
IPC: H04L49/103 , G06F12/02 , G06F12/06 , G06J1/00 , G06N3/04 , G06N3/063 , G06N3/10 , G11C7/10 , G11C11/54 , H04L49/102 , H04L49/35 , H04L49/356 , H04L49/40 , H04L49/901
Abstract: System (200; 500), aufweisend:ein Prozessorsystem mit neuronalem Netz, das durch ein Netzwerk (213; 804) miteinander verbundene Verarbeitungskerne (201-209; 805, 808) mit neuronalem Netz aufweist;eine Schnittstelle (220; 801), die funktionsmäßig mit dem Netzwerk (213; 804) verbunden ist, wobei die Schnittstelle einen Speicherbelegungsplan (101) aufweist, wobei der Speicherbelegungsplan einen ersten Bereich (702), der Eingaben in das Prozessorsystem mit neuronalem Netz entspricht, und einen zweiten Bereich (701) aufweist, der Ausgaben aus dem Prozessorsystem mit neuronalem Netz entspricht, wobei die Schnittstelle einen gemeinsamen Puffer (807) aufweist und wobeidie Schnittstelle geeignet ist zum Empfangen von Nachrichten über das Netzwerk von Verarbeitungskernen (201-209; 805, 808) mit neuronalem Netz, wobei Nachrichten Nachrichtendaten und Adressen aufweisen;die Schnittstelle geeignet ist zum Speichern der Nachrichtendaten der Nachrichten in dem gemeinsamen Puffer an Orten, die den Adressen in jeweiligen Nachrichten entsprechen.
-
公开(公告)号:AU2020395435A1
公开(公告)日:2022-05-26
申请号:AU2020395435
申请日:2020-09-29
Applicant: IBM
Inventor: CASSIDY ANDREW STEPHEN , APPUSWAMY RATHINAKUMAR , ARTHUR JOHN VERNON , DATTA PALLAB , ESSER STEVE KYLE , FLICKNER MYRON , MCKINSTRY JEFFREY , MODHA DHARMENDRA , SAWADA JUN , TABA BRIAN SEISHO
Abstract: Neural inference chips are provided. A neural core of the neural inference chip comprises a vector-matrix multiplier; a vector processor; and an activation unit operatively coupled to the vector processor. The vector-matrix multiplier, vector processor, and/or activation unit is adapted to operate at variable precision.
-
-
-
-
-
-
-
-
-