一种结合脑电和眼电的信息交互系统及信息交互方法

    公开(公告)号:CN103338265A

    公开(公告)日:2013-10-02

    申请号:CN201310290388.9

    申请日:2013-07-10

    Applicant: 安徽大学

    Abstract: 本发明公开了一种结合脑电和眼电的信息交互系统及信息交互方法,信息交互系统的无线通信模块包括多个Zigbee通信终端,且以其中一个Zigbee通信终端作为网络协调器;每个信息交互子终端包括信息融合模块和串口通信模块;每个信息交互子终端通过各自的串口通信模块与多个Zigbee通信终端之一相连接;每个信息交互子终端上连接有一个眼电与脑电信号采集模块;眼电与脑电信号采集模块采集用户的眼电信号与脑电信号并将所采集的眼电信号与脑电信号放大处理后发送至信息融合模块。本发明实现了一种结合脑电和眼电的信息交互系统及方法,提供了一种非言语与肢体的全新信息交互方式,具有应用范围广、扩展性强、使用舒适、交互性好、鲁棒性强等优点。

    眼电信号的特征提取与识别方法

    公开(公告)号:CN101599127B

    公开(公告)日:2011-09-14

    申请号:CN200910117157.1

    申请日:2009-06-26

    Applicant: 安徽大学

    Abstract: 眼电信号的特征提取与识别方法,其特征是包括眼电信号预处理、眼电信号特征参数提取及眼电信号模式识别三个阶段;其中,预处理阶段对眼电信号进行端点检测和带通滤波;特征参数提取阶段对眼电信号进行分帧、加窗,将连续的眼电信号转化为多段短时眼电信号后,提取出随时间变化的眼电特征参数序列;模式识别阶段通过动态时间规整法,将输入的眼电特征参数序列依次与模板库中的每个模板进行相似度的比较,以判断操作者相应的眼部运动。本发明具有较高眼电信号识别准确率、一定抗干扰能力及较强应用性价值等特点。

    跨场景听觉注意力解码模型的生成方法、装置和电子设备

    公开(公告)号:CN119055253B

    公开(公告)日:2025-01-03

    申请号:CN202411557705.3

    申请日:2024-11-04

    Applicant: 安徽大学

    Abstract: 本申请涉及一种跨场景听觉注意力解码模型的生成方法、装置和电子设备,其中,该生成方法包括:获取源域脑电信号和目标域脑电信号,源域脑电信号和目标域脑电信号分别为受试者在不同场景下产生的脑电信号;通过源域脑电信号对听觉注意力解码模型进行预训练,通过目标域脑电信号对预训练后的听觉注意力解码模型进行域适应训练。本发明提出的跨场景听觉注意力解码模型的生成方法,采用正则化损失(SRL)作为域适应损失,可以最小化不同场景间的数据差异,从而减少领域偏移,可以生成适应不同场景的听觉注意力解码模型,解决了传统听觉注意力解码模型的生成方法,无法生成能够适应不同场景的听觉注意力解码模型的问题。

    一种基于双分支网络的单声道语音增强方法及装置

    公开(公告)号:CN119049489B

    公开(公告)日:2025-01-03

    申请号:CN202411533326.0

    申请日:2024-10-31

    Applicant: 安徽大学

    Abstract: 本发明涉及语音增强技术领域,具体涉及一种基于双分支网络的单声道语音增强方法及装置。本发明公开了一种基于双分支网络的单声道语音增强方法,首先将带噪语音转换成原始语音谱、并引入了分解策略将其解耦成原始幅度谱、原始复数谱;然后基于双分支结构的语音增强网络,并行地从原始幅度谱和原始复数谱中提取特征,并通过信息交互处理得到增强复数谱;之后将基于增强复数谱、原始语音谱进行逆处理,从而得到增强语音。经过在现有公共数据集上进行仿真对比可知,本发明的方法可以在保持相当性能的同时,将Gb/s的复杂度水平进一步压缩,平均实现8.3倍的计算复杂度降低。本发明解决了现有SE解决方案存在计算复杂度高的问题。

    跨场景听觉注意力解码模型的生成方法、装置和电子设备

    公开(公告)号:CN119055253A

    公开(公告)日:2024-12-03

    申请号:CN202411557705.3

    申请日:2024-11-04

    Applicant: 安徽大学

    Abstract: 本申请涉及一种跨场景听觉注意力解码模型的生成方法、装置和电子设备,其中,该生成方法包括:获取源域脑电信号和目标域脑电信号,源域脑电信号和目标域脑电信号分别为受试者在不同场景下产生的脑电信号;通过源域脑电信号对听觉注意力解码模型进行预训练,通过目标域脑电信号对预训练后的听觉注意力解码模型进行域适应训练。本发明提出的跨场景听觉注意力解码模型的生成方法,采用正则化损失(SRL)作为域适应损失,可以最小化不同场景间的数据差异,从而减少领域偏移,可以生成适应不同场景的听觉注意力解码模型,解决了传统听觉注意力解码模型的生成方法,无法生成能够适应不同场景的听觉注意力解码模型的问题。

    基于扩散增强的多尺度时空感知的脑电数据扩增方法及其系统

    公开(公告)号:CN118940031A

    公开(公告)日:2024-11-12

    申请号:CN202410965778.X

    申请日:2024-07-18

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于扩散增强的多尺度时空感知的脑电数据扩增方法,包括以下步骤:S1:采集用户的脑电数据进行预处理,并转化为二维矩阵阵列;S2:将所有用户的数据进行对齐标准化,并划分为训练集与测试集;S3:构建扩散增强模型,利用训练集数据训练扩散增强模型;S4:构建并训练多尺度时空感知模型;S5:通过训练好的扩散增强模型生成增强样本,将增强样本与真实样本混合输入到多尺度时空感知模型中进行微调,得到训练好的多尺度时空感知模型;S6:将测试集输入到训练好的多尺度时空感知模型中,得到分类好的情感标签。还公开了一种基于扩散增强的多尺度时空感知的脑电数据扩增系统。本发明能端到端地实现高准确度的情感识别。

    基于双重注意力精炼网络的听觉注意解码方法和装置

    公开(公告)号:CN118567487B

    公开(公告)日:2024-09-24

    申请号:CN202411035097.X

    申请日:2024-07-31

    Applicant: 安徽大学

    Abstract: 本申请涉及一种基于双重注意力精炼网络的听觉注意解码方法和装置,听觉注意解码方法包括:获取脑电信号序列数据,通过滑动窗口对脑电信号序列数据进行截取,得到多个脑电信号窗口数据;通过时空特征提取网络对脑电信号窗口数据进行特征提取,生成低密度时空特征;通过第一注意力精炼网络对低密度时空特征进行精炼处理,生成浅层高密度时空特征,通过第二注意力精炼网络浅层高密度时空特征进行处理,生成深层高密度时空特征;根据浅层高密度时空特征和深层高密度时空特征,生成听觉注意表示;根据听觉注意表示,生成脑电信号序列数据的听觉注意解码结果。本申请可以提高听觉注意解码准确度,解决了目前的听觉注意解码方法存在听觉注意解码准确度低的问题。

    基于双重注意力精炼网络的听觉注意解码方法和装置

    公开(公告)号:CN118567487A

    公开(公告)日:2024-08-30

    申请号:CN202411035097.X

    申请日:2024-07-31

    Applicant: 安徽大学

    Abstract: 本申请涉及一种基于双重注意力精炼网络的听觉注意解码方法和装置,听觉注意解码方法包括:获取脑电信号序列数据,通过滑动窗口对脑电信号序列数据进行截取,得到多个脑电信号窗口数据;通过时空特征提取网络对脑电信号窗口数据进行特征提取,生成低密度时空特征;通过第一注意力精炼网络对低密度时空特征进行精炼处理,生成浅层高密度时空特征,通过第二注意力精炼网络浅层高密度时空特征进行处理,生成深层高密度时空特征;根据浅层高密度时空特征和深层高密度时空特征,生成听觉注意表示;根据听觉注意表示,生成脑电信号序列数据的听觉注意解码结果。本申请可以提高听觉注意解码准确度,解决了目前的听觉注意解码方法存在听觉注意解码准确度低的问题。

    基于增强现实系统的手部主动康复方法及其系统

    公开(公告)号:CN118315021A

    公开(公告)日:2024-07-09

    申请号:CN202410582955.6

    申请日:2024-05-11

    Applicant: 安徽大学

    Abstract: 本发明公开了一种基于增强现实系统的手部主动康复方法,包括以下步骤:S1:采用增强现实系统扫描患者手部,获取患者手部特征并对患者手部空间进行建模;S2:计算增强现实系统与患者手部的交互区域,在交互区域生成虚拟图像,让患者进行人机交互;S3:采集交互过程中患者的运动数据;S4:根据步骤S3采集的运动数据计算患者的康复系数;S5:通过计算所得康复系数评估患者的康复情况。还公开了一种基于增强现实系统的手部主动康复的系统。本发明操作简便,将医疗康复与增强现实技术有效结合,减轻了病人的训练负担,同时运用该技术还能辅助评估、优化反馈,从而大大提高康复质量和效率。

Patent Agency Ranking