-
公开(公告)号:CN113904795B
公开(公告)日:2024-06-04
申请号:CN202110992646.2
申请日:2021-08-27
Applicant: 北京工业大学
IPC: H04L9/40 , H04L41/142 , G06F18/23213 , G06F18/243 , G06N20/20 , G06N5/01
Abstract: 本发明公开了一种基于网络安全探针的流量快速精确检测方法,基于流量特征的设备资产识别接入控制技术及基于设备的智能安全管理模型。通过基于流量特征提取的设备资产识别方法,通过设置白名单,构建流量特征指纹库并通过在现有流识别算法基础上创新性的引入改进的随机森林算法与K‑Means聚类算法相结合的而提出的新的K‑Random聚类算法来训练设备识别模型以及通过主被动的扫描,从而达到更全面的获取设备分类以及相关的流量,从而实现了对设备的分类,对非白名单设备的接入控制;通过在现有的流量监测算法基础上创新性的设计一种基于sketch算法与哈希算法相结合从而设计出最优的未知流量监测算法CMⅡ‑Sketch算法,从而实现对流量的精准识别。
-
公开(公告)号:CN105741849A
公开(公告)日:2016-07-06
申请号:CN201610125876.8
申请日:2016-03-06
Applicant: 北京工业大学
IPC: G10L21/0232 , G10L21/0332 , G10L21/0224
CPC classification number: G10L21/0232 , G10L21/0224 , G10L21/0332
Abstract: 本发明公开数字助听器中融合相位估计与人耳听觉特性的语音增强方法,该方法首先通过傅里叶变换得到含噪语音的频域表达式;采用最小值控制递归平均方法获得噪声功率谱;获得初步增强语音和噪声的幅度谱;通过可改善低信噪比环境下语音失真的相位估计来修正语音和噪声的相位,获得初步增强语音和噪声;其次,将初步增强语音和噪声分别通过模拟人工耳蜗工作机理的gammatone滤波器组,进行滤波处理,对其时频分析,得到有时频单元组成的时频表示形式;最后,利用人耳的听觉特性,计算含噪语音在时频域的二值掩蔽,利用掩蔽值合成得到增强后的语音。该方法结合了人耳听觉特性,使数字助听器的输出语音信号的质量得到了很大的提高。
-
公开(公告)号:CN103778920A
公开(公告)日:2014-05-07
申请号:CN201410049180.2
申请日:2014-02-12
Applicant: 北京工业大学
IPC: G10L21/02 , G10L21/0232
Abstract: 本发明提出了数字助听器中语音增强和频响补偿相融合方法。该方法首先,采用MCRA法获得估计噪声和初步增强语音;将估计噪声和初步增强语音分别通过gammatone滤波器组进行滤波处理,利用耳蜗对信号的感知机理,把信号分为M个频带,同时得到信号的时频表示形式;然后,利用人耳的听觉掩蔽特性和频带信噪比等因素计算各个频带的掩蔽阈值;其次,利用耳障者的听力曲线动态地计算含噪语音在时频域的掩蔽值,使语音增强和频响补偿同时处理;最后,利用掩蔽值合成助听器输出语音。该算法充分利用了人耳的工作机理,保留了语音特征,去除了谱减法引入的“音乐噪声”,使助听器输出信号的可懂度得到很大的提高,低复杂度,低功耗。
-
公开(公告)号:CN109410976B
公开(公告)日:2022-12-16
申请号:CN201811292475.7
申请日:2018-11-01
Applicant: 北京工业大学
IPC: G10L21/0208 , G10L21/0272 , G10L21/0232 , G10L25/30 , G10L25/24
Abstract: 双耳数字助听器中基于双耳声源定位和深度学习的语音增强方法,属于语音信号处理领域。首先使用两级的深度神经网络对目标语音给予精确的定位,j结合空间滤波去除与目标语音方向不同的噪声。使用搭建的延时控制双向长短时记忆深度神经网络与分类器相结合的深度学习模型,以提取的多分辨率听觉倒谱系数为特征输入,经过深度学习的非线性处理能力,将每个含噪语音的时频单元分类为语音时频单元或噪声的时频单元,最后利用语音波形合成算法去除与目标语音相同方向的噪声。该算法不仅去除与目标语音不同方向上的噪声也去除与目标语音方向相同的噪声,最终获得满足耳障者的言可懂度和舒适度的增强语音。所有的深度学习模型都采用线下训练,满足实时性。
-
公开(公告)号:CN110867181A
公开(公告)日:2020-03-06
申请号:CN201910935064.3
申请日:2019-09-29
Applicant: 北京工业大学
IPC: G10L15/20 , G10L15/02 , G10L15/06 , G10L21/0216 , G10L21/0264 , G10L25/03 , G10L25/24 , G10L25/30
Abstract: 本发明提出了基于SCNN和TCNN联合估计的多目标语音增强方法。基于SCNN和TCNN提出了新的堆叠和时序卷积神经网络(STCNN),将对数功率谱(LPS)作为主要特征并输入到SCNN来提取高级抽象特征。其次,提出了一种更符合人耳听觉特性的幂函数压缩梅尔倒谱系数(PC-MFCC)。时间卷积神经网络(TCNN)将堆叠卷积神经网络提取的高层次抽象特征和PC-MFCC作为输入,进行序列建模并对干净的LPS,PC-MFCC和理想比例掩蔽(IRM)进行联合估计。最后,在增强阶段,由于不同的语音特征在合成语音过程中具有互补性。提出了一种基于IRM的后处理方法,通过语音存在信息自适应地调节估计的LPS和IRM的权重来合成增强语音。
-
公开(公告)号:CN105611477B
公开(公告)日:2018-06-01
申请号:CN201510999943.4
申请日:2015-12-27
Applicant: 北京工业大学
IPC: H04R25/00
Abstract: 数字助听器中深度和广度神经网络相结合的语音增强算法,属于语音信号处理技术领域。该方法首先对含噪语音信号进行语音活动性检测,提取含噪语音信号的自相关函数最大值和频带方差等特征,再利用BP神经网络建立一个二值判决器,判断出语音段和噪声段。其次,提取MFCC和一阶MFCC特征,采用学习向量量化神经网络与BP神经网络级联构成的深度神经网络,检测出噪声的类型。最后,建立多种网络并联构成的广度神经网络,根据噪声的类型,广度神经网络自动选取相应的神经网络,去除噪声,得到增强后的语音,提高助听器输出语音的可懂度。该算法中神经网络的训练过程都是在线下完成,而训练好的网络的测试算法复杂度低,因此,满足实时性。
-
公开(公告)号:CN103778920B
公开(公告)日:2016-03-09
申请号:CN201410049180.2
申请日:2014-02-12
Applicant: 北京工业大学
IPC: G10L21/02 , G10L21/0232
Abstract: 本发明提出了数字助听器中语音增强和频响补偿相融合方法。该方法首先,采用MCRA法获得估计噪声和初步增强语音;将估计噪声和初步增强语音分别通过gammatone滤波器组进行滤波处理,利用耳蜗对信号的感知机理,把信号分为M个频带,同时得到信号的时频表示形式;然后,利用人耳的听觉掩蔽特性和频带信噪比等因素计算各个频带的掩蔽阈值;其次,利用耳障者的听力曲线动态地计算含噪语音在时频域的掩蔽值,使语音增强和频响补偿同时处理;最后,利用掩蔽值合成助听器输出语音。该算法充分利用了人耳的工作机理,保留了语音特征,去除了谱减法引入的“音乐噪声”,使助听器输出信号的可懂度得到很大的提高,低复杂度,低功耗。
-
公开(公告)号:CN110867181B
公开(公告)日:2022-05-06
申请号:CN201910935064.3
申请日:2019-09-29
Applicant: 北京工业大学
IPC: G10L15/20 , G10L15/02 , G10L15/06 , G10L21/0216 , G10L21/0264 , G10L25/03 , G10L25/24 , G10L25/30
Abstract: 本发明提出了基于SCNN和TCNN联合估计的多目标语音增强方法。基于SCNN和TCNN提出了新的堆叠和时序卷积神经网络(STCNN),将对数功率谱(LPS)作为主要特征并输入到SCNN来提取高级抽象特征。其次,提出了一种更符合人耳听觉特性的幂函数压缩梅尔倒谱系数(PC‑MFCC)。时间卷积神经网络(TCNN)将堆叠卷积神经网络提取的高层次抽象特征和PC‑MFCC作为输入,进行序列建模并对干净的LPS,PC‑MFCC和理想比例掩蔽(IRM)进行联合估计。最后,在增强阶段,由于不同的语音特征在合成语音过程中具有互补性。提出了一种基于IRM的后处理方法,通过语音存在信息自适应地调节估计的LPS和IRM的权重来合成增强语音。
-
公开(公告)号:CN108122559B
公开(公告)日:2021-05-14
申请号:CN201711397816.2
申请日:2017-12-21
Applicant: 北京工业大学
Abstract: 本发明公开一种数字助听器中基于深度学习的双耳声源定位方法,首先将双耳声源信号通过gammatone滤波器分解成若干信道,通过加权系数提取高能量的信道,接着利用头相关函数(head‑related‑transform function,HRTF)提取第一类特征,即耳间时间差(Interaural Time Difference,ITD)和耳间强度差(Interaural Intensity Difference,IID)作为深度学习的输入,将水平面划分为四个象限,缩小定位范围。然后提取头相关传递的第二类特征,即耳间声压差(Interaural Level Difference,ILD)和耳间相位差(Interaural Phase Difference,IPD),最后为了得到更精确的定位,将第一类和第二类的四个特征作为下一个深度学习的输入,从而得到声源定位的方位角。实现在水平面上0度到360度以5度为步长进行72个方位角的精确定位。
-
公开(公告)号:CN105741849B
公开(公告)日:2019-03-22
申请号:CN201610125876.8
申请日:2016-03-06
Applicant: 北京工业大学
IPC: G10L21/0232 , G10L21/0332 , G10L21/0224
Abstract: 本发明公开数字助听器中融合相位估计与人耳听觉特性的语音增强方法,该方法首先通过傅里叶变换得到含噪语音的频域表达式;采用最小值控制递归平均方法获得噪声功率谱;获得初步增强语音和噪声的幅度谱;通过可改善低信噪比环境下语音失真的相位估计来修正语音和噪声的相位,获得初步增强语音和噪声;其次,将初步增强语音和噪声分别通过模拟人工耳蜗工作机理的gammatone滤波器组,进行滤波处理,对其时频分析,得到有时频单元组成的时频表示形式;最后,利用人耳的听觉特性,计算含噪语音在时频域的二值掩蔽,利用掩蔽值合成得到增强后的语音。该方法结合了人耳听觉特性,使数字助听器的输出语音信号的质量得到了很大的提高。
-
-
-
-
-
-
-
-
-