一种针对多种加解密计算的可重构加速核心系统及其加速方法

    公开(公告)号:CN112199324A

    公开(公告)日:2021-01-08

    申请号:CN202011163743.2

    申请日:2020-10-27

    Applicant: 南京大学

    Abstract: 本发明提出一种针对多种加解密计算的可重构加速核心系统及其加速方法,通过重构单元改变片内连线方式以改变计算单元的计算顺序,使其复用同一套硬件资源实现多种加解密算法。加速核心系统包括用于接收来自外部算法配置流的顶层控制模块;用于接收来自顶层控制模块的配置数据流的算法控制模块;通过数据处理专用接口与所述算法控制模块相连接的数论运算簇;用于接收来自顶层控制模块的配置数据流的直接存储访问控制模块;以及带有安全处理单元的片内源数据、结果数据存储模块以及密钥存储模块。本发明在顶层控制模块接受到外部算法配置流后,会根据配置流重构算法控制模块与数论运算簇及源数据、结果数据、秘钥存储模块之间的互联关系。

    一种可拼接、可分段的全连接神经网络推理加速器及其加速方法

    公开(公告)号:CN111860819A

    公开(公告)日:2020-10-30

    申请号:CN202010731785.5

    申请日:2020-07-27

    Applicant: 南京大学

    Abstract: 本发明涉及一种可拼接、可分段的全连接神经网络推理加速器及其加速方法,加速器包括控制模块、存储模块、计算模块三大功能模块,控制模块有三种模式:配置模式、搬运模式、计算模式。本发明充分利用全连接计算的可并行性以及权重的可共享性,支持多批处理、多路并行计算。控制模块通过模式的跳转来控制整个全连接的实现与加速。本发明可以实现对输入神经元和权重的独立地址的拼接,即可以将需要进行多次计算的全连接合并为一次全连接运算;其次,本发明可以实现全连接计算的拆分,通过暂存中间结果的方式对其进行分段计算,在硬件资源有限的情况下,实现大规模的全连接神经网络的计算。

    基于横向脉动阵列的RNN前向传播模型的硬件加速实现系统及方法

    公开(公告)号:CN110826710A

    公开(公告)日:2020-02-21

    申请号:CN201910996386.9

    申请日:2019-10-18

    Applicant: 南京大学

    Abstract: 本发明公开了基于横向脉动阵列的RNN前向传播模型的硬件加速实现系统及方法,首先配置网络参数,对数据进行初始化后,基于横向脉动阵列,计算中权重采用分块设计,隐藏层计算的权重矩阵按行进行分块,经过矩阵乘向量和向量求和运算和激活函数运算,计算得到隐藏层神经元,随后根据获得的隐藏层神经元,经过矩阵乘向量、向量求和运算和激活函数运算,产生RNN输出层结果,最终依据时间序列长度配置信息,产生RNN网络所需的输出结果,本方法隐藏层和输出层多维度并行,提高了计算的流水性,同时RNN网络中权重矩阵参数共享的特点,采用分块设计,进一步提高计算的并行度,灵活度高、可扩展性强、存储资源利用率高,加速比高,大大降低了计算。

    一种可重构的深度置信网络实现系统

    公开(公告)号:CN109711543A

    公开(公告)日:2019-05-03

    申请号:CN201811646423.5

    申请日:2018-12-30

    Applicant: 南京大学

    Abstract: 本发明公开了可重构的深度置信网络实现系统,该系统包括:控制单元用于控制深度置信网络算法的运算流程;数据暂存单元用于存储计算所需的输入层信息、权重、偏置及输出层结果;受限玻尔兹曼机用于计算深度置信网络中各层结点的激活概率,以决定其激活状态;参数更新单元用于更新深度置信网络中各层结点的权重及偏置,其仅在训练算法中被激活。有益效果:该实现系统通过复用受限玻尔兹曼机及控制算法状态跳转可支持训练和推理两种算法,降低了算法的硬件资源开销,并保证了算法性能,适用于各种人工智能场景。

Patent Agency Ranking