-
1.
公开(公告)号:DE112019002981T5
公开(公告)日:2021-03-11
申请号:DE112019002981
申请日:2019-06-05
Applicant: IBM
Inventor: CASSIDY ANDREW STEPHEN , FLICKNER MYRON , DATTA PALLAB , PENNER HARTMUT , APPUSWAMY RATHINAKUMAR , SAWADA JUN , ARTHUR JOHN VERNON , MODHA DHARMENDRA , ESSER STEVEN KYLE , TABA BRIAN SEISHO , KLAMO JENNIFER
Abstract: Bereitgestellt wird Verarbeitungs-Hardware eines neuronalen Netzwerks unter Verwendung von Parallelberechnungsarchitekturen mit rekonfigurierbarer Kernebenen- und Vektorebenen-Parallelität. In verschiedenen Ausführungsformen wird ein Arbeitsspeicher eines neuronalen Netzwerkmodells angepasst, um ein neuronales Netzwerkmodell zu speichern, das eine Mehrzahl von Schichten aufweist. Jede Schicht hat mindestens eine Dimension und weist eine Mehrzahl von synaptischen Gewichtungen auf. Bereitgestellt wird eine Mehrzahl von neuronalen Kernen. Jeder neuronale Kern enthält eine Berechnungseinheit und einen Aktivierungsarbeitsspeicher. Die Berechnungseinheit ist angepasst, um eine Mehrzahl von synaptischen Gewichtungen auf eine Mehrzahl von Eingabeaktivierungen anzuwenden, um eine Mehrzahl von Ausgabeaktivierungen zu erzeugen. Die Berechnungseinheit hat eine Mehrzahl von Vektoreinheiten. Der Aktivierungsarbeitsspeicher ist angepasst, um die Eingabeaktivierungen und die Ausgabeaktivierungen zu speichern. Das System ist angepasst, um die Mehrzahl von Kernen in eine Mehrzahl von Partitionen auf Grundlage von Dimensionen der Schicht und der Vektoreinheiten zu partitionieren.
-
公开(公告)号:DE112019002061T5
公开(公告)日:2021-02-04
申请号:DE112019002061
申请日:2019-03-28
Applicant: IBM
Inventor: MODHA DHARMENDRA , ARTHUR JOHN VERNON , SAWADA JUN , ESSER STEVEN KYLE , APPUSWAMY RATHINAKUMAR , TABA BRIAN SEISHO , CASSIDY ANDREW STEPHEN , DATTA PALLAB , FLICKNER MYRON , PENNER HARTMUT , KLAMO JENNIFER
IPC: G06F15/80
Abstract: Neuronale Inferenz-Chips und Kerne werden bereitgestellt, die so ausgelegt sind, dass sie durch Parallelismus und On-Chip-Speicher zeit- und platzsparende sowie energieeffiziente neuronale Inferenz bereitstellen. In verschiedenen Ausführungsformen weisen die neuronalen Inferenz-Chips auf: eine Mehrzahl von neuronalen Kernen, die durch ein On-Chip-Netzwerk miteinander verbunden sind; einen ersten On-Chip-Speicher zum Speichern eines neuronalen Netzwerkmodells, wobei der erste On-Chip-Speicher mit jedem der Mehrzahl von Kernen durch das On-Chip-Netzwerk verbunden ist; einen zweiten On-Chip-Speicher zum Speichern von Eingabe- und Ausgabedaten, wobei der zweite On-Chip-Speicher mit jedem der Mehrzahl von Kernen durch das On-Chip-Netzwerk verbunden ist.
-
公开(公告)号:DE102021128932A1
公开(公告)日:2022-06-09
申请号:DE102021128932
申请日:2021-11-08
Applicant: IBM
Inventor: SAWADA JUN , FLICKNER MYRON D , CASSIDY ANDREW STEPHEN , ARTHUR JOHN VERNON , DATTA PALLAB , MODHA DHARMENDRA S , ESSER STEVEN KYLE , TABA BRIAN SEISHO , KLAMO JENNIFER , APPUSWAMY RATHINAKUMAR , AKOPYAN FILIPP , OTERO CARLOS ORTEGA
IPC: G06N3/063
Abstract: Ein neuronaler Inferenz-Chip wird bereitgestellt, der zumindest einen neuronalen Inferenzkern enthält. Der zumindest eine neuronale Inferenzkern ist dazu ausgelegt, eine Mehrzahl von synaptischen Gewichtungen auf eine Mehrzahl von Eingabeaktivierungen anzuwenden, um eine Mehrzahl von Zwischenausgaben zu erzeugen. Der zumindest eine neuronale Inferenzkern weist eine Mehrzahl von Aktivierungseinheiten auf, die dazu konfiguriert ist, die Mehrzahl von Zwischenausgaben zu empfangen und eine Mehrzahl von Aktivierungen zu erzeugen. Jede der Mehrzahl von Aktivierungseinheiten ist dazu konfiguriert, eine konfigurierbare Aktivierungsfunktion auf ihre Eingabe anzuwenden. Die konfigurierbare Aktivierungsfunktion weist zumindest einen Bereichsänderungsterm und einen Skalierungsterm auf, wobei der Bereichsänderungsterm den Bereich der Aktivierungen festlegt und der Skalierungsterm die Skalierung der Aktivierungen festlegt. Jede der Mehrzahl von Aktivierungseinheiten ist dazu konfiguriert, den Bereichsänderungsterm und den Skalierungsterm aus einer oder mehreren Umsetzungstabellen zu gewinnen.
-
公开(公告)号:DE112019003529T5
公开(公告)日:2021-04-15
申请号:DE112019003529
申请日:2019-09-25
Applicant: IBM
Inventor: ARTHUR JOHN VERNON , CASSIDY ANDREW STEPHEN , FLICKNER MYRON , DATTA PALLAB , PENNER HARTMUT , APPUSWAMY RATHINAKUMAR , SAWADA JUN , MODHA DHARMENDRA , ESSER STEVEN KYLE , TABA BRIAN SEISHO , KLAMO JENNIFER
IPC: G06N3/06
Abstract: Systeme für Neural Network Computation werden bereitgestellt. Ein Prozessor eines neuronalen Netzes weist eine Mehrzahl von neuronalen Kernen auf. Der Prozessor des neuronalen Netzes weist eine oder mehrere Prozessorgenauigkeiten pro Aktivierung auf. Der Prozessor ist dazu ausgebildet, Daten mit einer Prozessormerkmalsdimension anzunehmen. Eine Umwandlungsschaltung ist mit dem Prozessor des neuronalen Netzes verbunden und ist dazu gestaltet: einen Eingabedatentensor mit einer Eingabegenauigkeit pro Kanal bei einem oder mehreren Merkmalen zu empfangen; den Eingabedatentensor von der Eingabegenauigkeit in die Prozessorgenauigkeit umzuwandeln; die Eingabedaten in eine Mehrzahl von Blöcken zu unterteilen, wobei jeder Block einer der Prozessormerkmalsdimensionen entspricht; jeden der Mehrzahl von Blöcken für einen der Mehrzahl von neuronalen Kernen bereitzustellen. Der Prozessor des neuronalen Netzes ist dazu gestaltet, durch die Mehrzahl von neuronalen Kernen eine Ausgabe einer oder mehrerer Schichten des neuronalen Netzes zu berechnen.
-
公开(公告)号:DE112019000676T5
公开(公告)日:2020-12-03
申请号:DE112019000676
申请日:2019-03-28
Applicant: IBM
Inventor: CASSIDY ANDREW STEPHEN , FLICKNER MYRON , DATTA PALLAB , PENNER HARTMUT , APPUSWAMY RATHINAKUMAR , SAWADA JUN , ARTHUR JOHN VERNON , MODHA DHARMENDRA , ESSER STEVEN KYLE , TABA BRIAN SEISHO , KLAMO JENNIFER
IPC: G06N3/063
Abstract: Neuronale Inferenzprozessoren werden bereitgestellt. In verschiedenen Ausführungsformen umfasst ein Prozessor eine Mehrzahl von Kernen. Jeder Kern enthält eine neuronale Recheneinheit, einen Aktivierungsspeicher und eine lokale Steuereinheit. Die neuronale Recheneinheit ist so ausgelegt, dass sie eine Mehrzahl von synaptischen Gewichtungen auf eine Mehrzahl von Eingabeaktivierungen anwendet, um eine Mehrzahl von Ausgabeaktivierungen zu erzeugen. Der Aktivierungsspeicher ist so ausgelegt, dass er die Eingabeaktivierungen und Ausgabeaktivierungen speichert. Die lokale Steuereinheit ist so ausgelegt, dass sie die Eingabeaktivierungen von dem Aktivierungsspeicher in die neuronale Recheneinheit lädt und die Mehrzahl von Ausgabeaktivierungen von der neuronalen Recheneinheit in dem Aktivierungsspeicher speichert. Der Prozessor enthält einen Speicher für ein neuronales Netzwerkmodell, der so ausgelegt ist, dass er die Netzwerkparameter, darunter die Mehrzahl von synaptischen Gewichtungen, speichert. Der Prozessor enthält einen globalen Scheduler, der funktionsmäßig mit der Mehrzahl von Kernen verbunden und so ausgelegt ist, dass er jedem Kern die synaptischen Gewichtungen aus dem Speicher für ein neuronales Netzwerkmodell bereitstellt.
-
公开(公告)号:DE112019000336T5
公开(公告)日:2020-09-17
申请号:DE112019000336
申请日:2019-03-11
Applicant: IBM
Inventor: SAWADA JUN , MODHA DHARMENDRA , ARTHUR JOHN VERNON , ESSER STEVEN KYLE , APPUSWAMY RATHINAKUMAR , TABA BRIAN SEISHO , CASSIDY ANDREW STEPHEN , DATTA PALLAB , FLICKNER MYRON , PENNER HARTMUT , KLAMO JENNIFER
IPC: G06N3/063
Abstract: Bereitgestellt werden massiv parallele neuronale Inferenz-Datenverarbeitungselemente. Eine Mehrzahl von Multiplizierern ist in einer Mehrzahl von gleich großen Gruppen angeordnet. Jeder aus der Mehrzahl von Multiplizierern ist ausgelegt, um eine Gewichtung auf eine Eingabeaktivierung parallel anzuwenden, um eine Ausgabe zu erzeugen. Eine Mehrzahl von Addierern ist mit einer der Gruppen von Multiplizierern wirkverbunden. Jeder aus der Mehrzahl von Addierern ist ausgelegt, um die Ausgaben der Multiplizierer innerhalb der ihnen jeweils zugehörigen Gruppe parallel zu addieren, um eine Partialsumme zu erzeugen. Eine Mehrzahl von Funktionsblöcken ist mit einem aus der Mehrzahl von Addierern wirkverbunden. Jeder aus der Mehrzahl von Funktionsblöcken ist ausgelegt, um eine Funktion auf die Partialsumme des ihm zugehörigen Addierers parallel anzuwenden, um einen Ausgabewert zu erzeugen.
-
-
-
-
-