-
公开(公告)号:CN107203808B
公开(公告)日:2018-06-01
申请号:CN201710323924.9
申请日:2017-05-08
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063
Abstract: 本发明提供一种二值卷积装置及相应的二值卷积神经网络处理器,所述二值卷积装置包括:XNOR门,其以所采用的卷积核中的元素与待卷积数据中的相应元素作为其输入,其中所述卷积核中的元素与所述待卷积数据中的相应元素均为二值形式;累加装置,其将所述XNOR门的输出作为其输入,用于对所述XNOR门的输出进行累加,以输出二值卷积的结果。根据本发明的技术方案,可以在运算过程中减少进行计算的数据的位宽,达到提高运算效率、降低存储容量及能耗的效果。
-
公开(公告)号:CN107153873B
公开(公告)日:2018-06-01
申请号:CN201710316252.9
申请日:2017-05-08
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063
Abstract: 本发明提供一种二值卷积神经网络处理器,包括:待计算数据存储装置,用于存储二值形式的待卷积数据的元素以及二值形式的卷积核元素;二值卷积装置,用于对所述二值形式的卷积核元素及所述二值形式的待卷积数据中相应的元素进行二值卷积操作;数据调度装置,用于将所述卷积核元素与所述待卷积数据中相应的元素载入所述二值卷积装置;池化装置,用于对卷积所获得的结果进行池化处理;以及归一化装置,用于对经过池化的结果进行归一化操作。
-
公开(公告)号:CN107862374A
公开(公告)日:2018-03-30
申请号:CN201711033073.0
申请日:2017-10-30
Applicant: 中国科学院计算技术研究所
IPC: G06N3/04
Abstract: 本发明提供了一种神经网络处理系统。该处理系统包括:乘法器模块,所述乘法器模块包含构成流水线的多级结构,并用于执行神经网络中待计算的神经元和权值的乘法运算,其中,所述乘法器模块的每一级结构完成所述神经元和权值的乘法运算的子运算;累加器模块,所述累加器模块包含构成流水线的多级结构,并用于对所述乘法器模块的乘法运算结果进行累加运算,以获得神经网络中卷积层的输出神经元,其中,所述累加器模块的每一级结构完成累加运算的子运算;池化单元,用于对所述卷积层的输出神经元进行池化处理;控制单元,用于控制神经网络处理系统中数据的传递。利用本发明的神经网络处理系统能够提高资源利用率和数据处理的速度。
-
公开(公告)号:CN107861916A
公开(公告)日:2018-03-30
申请号:CN201711103463.0
申请日:2017-11-10
Applicant: 中国科学院计算技术研究所
IPC: G06F17/15
CPC classification number: G06F17/15
Abstract: 本发明提供一种用于在神经网络中执行非线性函数运算的方法,包括:1)根据所述非线性函数的输入值的范围,划分多个分段区间;2)针对所述多个分段区间中的每一个,将其两个端点值分别作为所述非线性函数的自变量,计算获得与所述分段区间对应的两个因变量;3)将所述计算获得的与所述分段区间对应的所述两个因变量和所述两个自变量作为与所述分段区间对应的线性函数上的两点,计算与每个分段区间对应的线性函数的斜率和截距;4)针对所述多个分段区间中的每一个,存储与其对应的斜率和截距,以用于执行所述非线性函数运算。
-
公开(公告)号:CN107832840A
公开(公告)日:2018-03-23
申请号:CN201711054158.7
申请日:2017-10-31
Applicant: 中国科学院计算技术研究所
Abstract: 本发明提供一种用于神经网络处理器的方法,包括:1)确定所述神经网络处理器的电路构造;2)增加所述电路构造中至少一条路径上的至少一个器件的延时;3)将测试用的数据集作为增加了延时后的所述电路构造的输入,并通过评估所述电路构造的工作状况来获得用于所述神经网络处理器的神经网络权重值。
-
公开(公告)号:CN107578095A
公开(公告)日:2018-01-12
申请号:CN201710777736.3
申请日:2017-09-01
Applicant: 中国科学院计算技术研究所
IPC: G06N3/06
Abstract: 本发明提供一种神经网络计算装置以及包含该计算装置的处理器。该计算装置包括脉动阵列处理单元和主处理器,所述主处理器用于控制神经网络中的计算元素向所述脉动阵列处理单元的装载以及在所述脉动阵列处理单元中的传递,所述脉动阵列处理单元由多个处理单元构成,每个处理单元对接收的计算元素执行相关运算和/或将接收到的计算元素传递给下一个处理单元,其中,所述计算元素包括神经元数据和对应的权重值。利用本发明的计算装置能够加快神经网络的计算速度并降低计算过程中对带宽的需求。
-
公开(公告)号:CN107203808A
公开(公告)日:2017-09-26
申请号:CN201710323924.9
申请日:2017-05-08
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063
CPC classification number: G06N3/063
Abstract: 本发明提供一种二值卷积装置及相应的二值卷积神经网络处理器,所述二值卷积装置包括:XNOR门,其以所采用的卷积核中的元素与待卷积数据中的相应元素作为其输入,其中所述卷积核中的元素与所述待卷积数据中的相应元素均为二值形式;累加装置,其将所述XNOR门的输出作为其输入,用于对所述XNOR门的输出进行累加,以输出二值卷积的结果。根据本发明的技术方案,可以在运算过程中减少进行计算的数据的位宽,达到提高运算效率、降低存储容量及能耗的效果。
-
公开(公告)号:CN107153873A
公开(公告)日:2017-09-12
申请号:CN201710316252.9
申请日:2017-05-08
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063
CPC classification number: G06N3/063
Abstract: 本发明提供一种二值卷积神经网络处理器,包括:待计算数据存储装置,用于存储二值形式的待卷积数据的元素以及二值形式的卷积核元素;二值卷积装置,用于对所述二值形式的卷积核元素及所述二值形式的待卷积数据中相应的元素进行二值卷积操作;数据调度装置,用于将所述卷积核元素与所述待卷积数据中相应的元素载入所述二值卷积装置;池化装置,用于对卷积所获得的结果进行池化处理;以及归一化装置,用于对经过池化的结果进行归一化操作。
-
公开(公告)号:CN107103358A
公开(公告)日:2017-08-29
申请号:CN201710182534.4
申请日:2017-03-24
Applicant: 中国科学院计算技术研究所
IPC: G06N3/063
CPC classification number: G06N3/063
Abstract: 本发明涉及一种基于自旋转移力矩磁存储器的神经网络处理方法和系统,其中包括以下步骤:步骤S1,从存储单元读取需要执行的操作指令,并根据该操作指令将待计算的输入数据写入该存储单元,并生成控制信号;步骤S2,从该存储单元中获取该输入数据,结合该控制信号执行神经网络计算中的计算操作,产生中间计算数据和最终计算数据,并存入该存储单元;其中该存储单元存储介质为多层自旋转移力矩磁存储器。本发明针可在保证神经网络计算精度同时,降低片上资源开销及能量损耗。
-
公开(公告)号:CN106650924A
公开(公告)日:2017-05-10
申请号:CN201610970218.9
申请日:2016-10-27
Applicant: 中国科学院计算技术研究所
CPC classification number: G06N3/063 , G06F7/575 , G06F9/3001 , G06F9/3895 , G06F15/7814 , G06F15/7817
Abstract: 本发明提出一种基于时间维和空间维数据流压缩的处理器、设计方法、芯片,该处理器包括至少一个存储单元,用于存储操作指令与参与计算的数据;至少一个存储单元控制器,用于对所述存储单元进行控制;至少一个计算单元,用于执行神经网络的计算操作;控制单元,与所述存储单元控制器与所述计算单元相连,用于经由所述存储单元控制器获得所述存储单元存储的指令,并且解析所述指令以控制所述计算单元;计算单元阵列,所述计算单元阵列由m*n个所述计算单元组成,每个所述计算单元完成数据与神经网络权重的卷积运算;至少一个权重检索单元,用于对权重进行检索,其中每个所述权重检索单元与所述计算单元相连,保证具有压缩格式的权重在时间维和空间维数据流压缩下可与对应数据正确计算。
-
-
-
-
-
-
-
-
-