基于稳态视觉诱发电位空域特性的身份识别方法及其系统

    公开(公告)号:CN118051771A

    公开(公告)日:2024-05-17

    申请号:CN202410016116.8

    申请日:2024-01-04

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于稳态视觉诱发电位空域特性的身份识别方法,包括以下步骤:S1:使用Benchmark数据集并对其进行预处理;S2:设计一个EhythmNet模型;S3:利用EhythmNet模型对预处理后的数据集进行训练与测试;S4:利用EhythmNet模型对N导联EEG数据进行分类,得到导联识别率和识别率脑地形图;S5:利用EhythmNet基于导联识别率对被试者进行分类识别;S6:利用EfficientNet‑B0基于脑地形图对被试者进行分类识别。还公开了一种基于稳态视觉诱发电位空域特性的身份识别系统。本发明利用SSVEP在不同头皮电极的空域分布特性,实现了两种不同的身份识别新方法。

    视听场景下的听觉注意解码方法、装置和助听系统

    公开(公告)号:CN117992909A

    公开(公告)日:2024-05-07

    申请号:CN202410124705.8

    申请日:2024-01-29

    Applicant: 安徽大学

    Abstract: 本申请涉及一种视听场景下的听觉注意解码方法、装置和助听系统,其中,该目标说话者定位方法包括;实时获取听者的脑电信号和视野图像;其中,所述脑电信号通过佩戴于听者头部的脑电信号采集设备采集得到,所述视野图像通过与听者头部同步运动的图像采集设备采集得到;将所述脑电信号和所述视野图像输入基于机器学习的听觉注意解码模型,通过所述听觉注意解码模型得到目标说话者的空间方位。本发明充分考虑了实际场景中可用于定位目标说话者的信息,进而能够更加准确地锁定目标说话者的空间方位,改进了现有的听觉注意解码算法,可以更加充分地注意目标说话者的声音,解决了目前的听觉注意解码算法对目标声源的定位准确性较低的问题。

    一种采用自适应卡尔曼滤波器的动态目标跟随方法、系统

    公开(公告)号:CN117472096A

    公开(公告)日:2024-01-30

    申请号:CN202311425951.9

    申请日:2023-10-31

    Applicant: 安徽大学

    Abstract: 本发明属于运动控制与导航技术领域,具体涉及一种采用自适应卡尔曼滤波器的动态目标跟随方法、系统及其装置。其包括如下步骤:S1:构建传统的卡尔曼滤波器。S2:设置自适应卡尔曼滤波器的参数调整阈值,包括信号质量指标和运动状态指标。S3:设计自适应卡尔曼滤波器,其支持结合参数调整阈值自适应调整预测噪声的协方差矩阵Qk和测量噪声的协方差矩阵Nk。S4:实时采集跟踪目标在当前时刻的相对角度和距离。S5:利用自适应卡尔曼滤波器对检测结果进行校正。S6:结合校正结果对跟随平台的速度和旋转角度进行调整,以实现对跟踪目标的实时跟随。本发明解决了采用传统卡尔曼滤波器的跟随系统在短暂异常状态下容易丢失目标,鲁棒性较差的问题。

    基于视频-气味联合诱发的多模态情感识别方法及其系统

    公开(公告)号:CN116894206A

    公开(公告)日:2023-10-17

    申请号:CN202310616845.2

    申请日:2023-05-29

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于视频‑气味联合诱发的多模态情感识别方法,包括以下步骤:受试者观看情感状态为积极、中性、消极的视频材料,同时结合同性质的气味作为视频和气味混合刺激;采集受试者在纯视频刺激和视频气味混合刺激两种刺激模式下的EEG信号和EOG信号,建立一个多刺激诱发的多模态情感数据库;数据预处理;对预处理之后的EEG信号和EOG信号提取各自的情感特征;将提取的情感特征采用基于联合训练的混合融合策略进行分类学习和训练,获得最终预测的情感类别。还公开了一种基于视频‑气味联合诱发的多模态情感识别系统。本发明填补了视频‑气味诱发的EEG和EOG信号数据库的空白。

    基于轻量级残差卷积胶囊网络的脑电情感识别检测方法及其系统

    公开(公告)号:CN116127286A

    公开(公告)日:2023-05-16

    申请号:CN202310161384.4

    申请日:2023-02-21

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于轻量级残差卷积胶囊网络的脑电情感识别检测方法,其特征在于,包括以下步骤:S1:提取脑电信号的原始波形并进行数据预处理;S2:采用基于残差卷积网络的特征提取器对特征的通道之间的相互依赖性建模,自动提取深层情绪特征;S3:采用卷积胶囊层将特征数据转换为原始胶囊,其长度和方向反映了与之相关的深层特征的存在性和特征;S4:采用情绪胶囊层作为分类器,利用权重矩阵捕获局部特征之间的位置关系,根据胶囊输出向量的长度表示该特征在当前胶囊层中出现的概率,获得相对应的预测结果。还公开了一种基于轻量级残差卷积胶囊网络的脑电情感识别检测系统。本发明能够显著提高情感识别水平检测的准确率。

    一种多模态情感分析方法及其系统

    公开(公告)号:CN115481679A

    公开(公告)日:2022-12-16

    申请号:CN202211045970.4

    申请日:2022-08-30

    Abstract: 本发明属于多模态情感分析领域,公开了一种多模态情感分析方法及其系统,包括S1:对语音、文本和图像模态序列进行编码,再经过1维卷积得到所有模态的特征表示,并将其作为双阶段特征融合的输入特征;S2:设计了一个堆叠Transformer,S3:第一阶段利用堆叠Transformer文本模态与视觉和声学两种非文本模态进行交互互补,并输出适应后的文本和非文本模态;S4:第二阶段将第一阶段输出的增强文本模态信息与原始输入联合表示,然后提取融合表示之间的潜在适应性;最后再融合两个阶段获得的相应信息以预测情感状态。本发明显著提升了多模态情感分析分类的准确率。

    基于样本学习的运动想象脑电频率特性分析方法及其系统

    公开(公告)号:CN114519367A

    公开(公告)日:2022-05-20

    申请号:CN202210042816.5

    申请日:2022-01-14

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于样本学习的运动想象脑电频率特性分析方法,包括以下步骤:S1:将多导原始MI‑EEG信号通过时域滤波和空域滤波预处理后,分离出若干运动相关独立分量MRICs,对MRICs进行时域拼接,生成一维CNN的训练样本;S2:利用S1生成的训练样本对一维CNN模型进行训练与分类性能测试,自动获取个性化MI频率参数和滤波参数;S3:将经一维CNN模型学习所得的最优一维卷积核参数直接构造时域带通滤波器,完成CSP空域滤波器和分类器的设计和训练。还公开了一种基于样本学习的运动想象脑电频率特性分析系统。本发明能够实现个性化MI‑BCI系统的优化设计。

    一种基于联合训练的端到端鲁棒语音识别系统

    公开(公告)号:CN114267357A

    公开(公告)日:2022-04-01

    申请号:CN202111546841.9

    申请日:2021-12-16

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于联合训练的端到端鲁棒语音识别系统,包括语音增强模块、语谱补偿模块、语音识别模块和联合训练模块;所述语音增强模块,用于去除语音中的部分干扰信号;所述语谱补偿模块,与所述语音增强模块相连接,用于获取语谱补偿的权重矩阵λ,利用该权重矩阵λ实现语谱补偿;所述语音识别模块,与所述语谱补偿模块连接,主要用于预测整个语音对应的文本序列;所述联合训练模块,用于联合优化语音增强模块、语谱补偿模块及语音识别模块。本发明的基于联合训练的端到端鲁棒语音识别系统,使得增强后的语音更加保真,提高了端到端语音识别系统的性能,进而提升了语音识别的鲁棒性。

    一种基于语谱补偿的单通道语音增强系统

    公开(公告)号:CN114038475A

    公开(公告)日:2022-02-11

    申请号:CN202111307973.6

    申请日:2021-11-05

    Applicant: 安徽大学

    Inventor: 范存航 吕钊

    Abstract: 本发明公开了一种基于语谱补偿的单通道语音增强系统,包括预增强模块,语谱补偿模块和联合训练模块;所述预增强模块,用于去除语音中的部分干扰信号;所述语谱补偿模块,与所述预增强模块相连接,用于获取语谱补偿的权重矩阵,利用该权重矩阵对预增强的语谱和原始输入的语谱进行融合;所述联合训练模块,与预增强模块和语谱补偿模块相连接,用于联合训练和优化预增强模块与语谱补偿模块。本发明的基于语谱补偿的单通道语音增强系统,具有能够在嘈杂的背景环境中保持增强后的语音有较高的音质、语音清晰、可懂等优点。

Patent Agency Ranking