-
公开(公告)号:CN103338265A
公开(公告)日:2013-10-02
申请号:CN201310290388.9
申请日:2013-07-10
Applicant: 安徽大学
IPC: H04L29/08 , H04W84/18 , A61B5/0496 , A61B5/0476
Abstract: 本发明公开了一种结合脑电和眼电的信息交互系统及信息交互方法,信息交互系统的无线通信模块包括多个Zigbee通信终端,且以其中一个Zigbee通信终端作为网络协调器;每个信息交互子终端包括信息融合模块和串口通信模块;每个信息交互子终端通过各自的串口通信模块与多个Zigbee通信终端之一相连接;每个信息交互子终端上连接有一个眼电与脑电信号采集模块;眼电与脑电信号采集模块采集用户的眼电信号与脑电信号并将所采集的眼电信号与脑电信号放大处理后发送至信息融合模块。本发明实现了一种结合脑电和眼电的信息交互系统及方法,提供了一种非言语与肢体的全新信息交互方式,具有应用范围广、扩展性强、使用舒适、交互性好、鲁棒性强等优点。
-
公开(公告)号:CN101599127B
公开(公告)日:2011-09-14
申请号:CN200910117157.1
申请日:2009-06-26
Applicant: 安徽大学
IPC: G06K9/62 , G06F3/01 , A61B5/0496 , A61B3/113
Abstract: 眼电信号的特征提取与识别方法,其特征是包括眼电信号预处理、眼电信号特征参数提取及眼电信号模式识别三个阶段;其中,预处理阶段对眼电信号进行端点检测和带通滤波;特征参数提取阶段对眼电信号进行分帧、加窗,将连续的眼电信号转化为多段短时眼电信号后,提取出随时间变化的眼电特征参数序列;模式识别阶段通过动态时间规整法,将输入的眼电特征参数序列依次与模板库中的每个模板进行相似度的比较,以判断操作者相应的眼部运动。本发明具有较高眼电信号识别准确率、一定抗干扰能力及较强应用性价值等特点。
-
公开(公告)号:CN119055253B
公开(公告)日:2025-01-03
申请号:CN202411557705.3
申请日:2024-11-04
Applicant: 安徽大学
Abstract: 本申请涉及一种跨场景听觉注意力解码模型的生成方法、装置和电子设备,其中,该生成方法包括:获取源域脑电信号和目标域脑电信号,源域脑电信号和目标域脑电信号分别为受试者在不同场景下产生的脑电信号;通过源域脑电信号对听觉注意力解码模型进行预训练,通过目标域脑电信号对预训练后的听觉注意力解码模型进行域适应训练。本发明提出的跨场景听觉注意力解码模型的生成方法,采用正则化损失(SRL)作为域适应损失,可以最小化不同场景间的数据差异,从而减少领域偏移,可以生成适应不同场景的听觉注意力解码模型,解决了传统听觉注意力解码模型的生成方法,无法生成能够适应不同场景的听觉注意力解码模型的问题。
-
公开(公告)号:CN119049489B
公开(公告)日:2025-01-03
申请号:CN202411533326.0
申请日:2024-10-31
Applicant: 安徽大学
IPC: G10L21/007 , G10L21/0232 , G10L21/0316 , G10L25/18 , G10L25/30
Abstract: 本发明涉及语音增强技术领域,具体涉及一种基于双分支网络的单声道语音增强方法及装置。本发明公开了一种基于双分支网络的单声道语音增强方法,首先将带噪语音转换成原始语音谱、并引入了分解策略将其解耦成原始幅度谱、原始复数谱;然后基于双分支结构的语音增强网络,并行地从原始幅度谱和原始复数谱中提取特征,并通过信息交互处理得到增强复数谱;之后将基于增强复数谱、原始语音谱进行逆处理,从而得到增强语音。经过在现有公共数据集上进行仿真对比可知,本发明的方法可以在保持相当性能的同时,将Gb/s的复杂度水平进一步压缩,平均实现8.3倍的计算复杂度降低。本发明解决了现有SE解决方案存在计算复杂度高的问题。
-
公开(公告)号:CN119128076A
公开(公告)日:2024-12-13
申请号:CN202411135988.2
申请日:2024-08-19
Applicant: 安徽大学 , 安徽省安庆市中级人民法院 , 北京华宇信息技术有限公司
IPC: G06F16/332 , G06F16/338 , G06F16/33 , G06F16/901 , G06Q50/18 , G06N3/042 , G06N3/045 , G06N3/0464
Abstract: 本发明属于自然语言处理技术领域,尤其涉及一种基于课程学习的司法类案检索方法及系统。该方法的过程如下:提取司法数据库中的每个司法案例的五个关键要素;以关键要素为节点,要素间的关联关系为边,将司法数据库转换为图;利用转换的图对案例匹配模型进行初级训练;利用K‑core算法将图划分为不同规模的子图,从子图获取初级课程训练案例对和高级课程训练案例对,并利用其对案例匹配模型进行两轮基于课程学习的初级和高级训练;由案例匹配模型生成查询案例的邻接矩阵;进而确定候选案例。计算查询案例与各个候选案例的相似度,对候选案例按相似度排序后输出。本发明解决现有类案检索无法识别文本语义关联、检索的准确性度不高的技术问题。
-
公开(公告)号:CN119055253A
公开(公告)日:2024-12-03
申请号:CN202411557705.3
申请日:2024-11-04
Applicant: 安徽大学
Abstract: 本申请涉及一种跨场景听觉注意力解码模型的生成方法、装置和电子设备,其中,该生成方法包括:获取源域脑电信号和目标域脑电信号,源域脑电信号和目标域脑电信号分别为受试者在不同场景下产生的脑电信号;通过源域脑电信号对听觉注意力解码模型进行预训练,通过目标域脑电信号对预训练后的听觉注意力解码模型进行域适应训练。本发明提出的跨场景听觉注意力解码模型的生成方法,采用正则化损失(SRL)作为域适应损失,可以最小化不同场景间的数据差异,从而减少领域偏移,可以生成适应不同场景的听觉注意力解码模型,解决了传统听觉注意力解码模型的生成方法,无法生成能够适应不同场景的听觉注意力解码模型的问题。
-
公开(公告)号:CN118940031A
公开(公告)日:2024-11-12
申请号:CN202410965778.X
申请日:2024-07-18
Applicant: 安徽大学
IPC: G06F18/214 , G06F18/241 , G06F18/20 , G06N3/0464 , G06N3/0442
Abstract: 本发明公开了一种基于扩散增强的多尺度时空感知的脑电数据扩增方法,包括以下步骤:S1:采集用户的脑电数据进行预处理,并转化为二维矩阵阵列;S2:将所有用户的数据进行对齐标准化,并划分为训练集与测试集;S3:构建扩散增强模型,利用训练集数据训练扩散增强模型;S4:构建并训练多尺度时空感知模型;S5:通过训练好的扩散增强模型生成增强样本,将增强样本与真实样本混合输入到多尺度时空感知模型中进行微调,得到训练好的多尺度时空感知模型;S6:将测试集输入到训练好的多尺度时空感知模型中,得到分类好的情感标签。还公开了一种基于扩散增强的多尺度时空感知的脑电数据扩增系统。本发明能端到端地实现高准确度的情感识别。
-
公开(公告)号:CN118567487B
公开(公告)日:2024-09-24
申请号:CN202411035097.X
申请日:2024-07-31
Applicant: 安徽大学
IPC: G06F3/01 , A61B5/38 , A61B5/374 , A61B5/00 , G06F18/213 , G06N3/0464 , G06N3/045 , G06F18/25
Abstract: 本申请涉及一种基于双重注意力精炼网络的听觉注意解码方法和装置,听觉注意解码方法包括:获取脑电信号序列数据,通过滑动窗口对脑电信号序列数据进行截取,得到多个脑电信号窗口数据;通过时空特征提取网络对脑电信号窗口数据进行特征提取,生成低密度时空特征;通过第一注意力精炼网络对低密度时空特征进行精炼处理,生成浅层高密度时空特征,通过第二注意力精炼网络浅层高密度时空特征进行处理,生成深层高密度时空特征;根据浅层高密度时空特征和深层高密度时空特征,生成听觉注意表示;根据听觉注意表示,生成脑电信号序列数据的听觉注意解码结果。本申请可以提高听觉注意解码准确度,解决了目前的听觉注意解码方法存在听觉注意解码准确度低的问题。
-
公开(公告)号:CN118567487A
公开(公告)日:2024-08-30
申请号:CN202411035097.X
申请日:2024-07-31
Applicant: 安徽大学
IPC: G06F3/01 , A61B5/38 , A61B5/374 , A61B5/00 , G06F18/213 , G06N3/0464 , G06N3/045 , G06F18/25
Abstract: 本申请涉及一种基于双重注意力精炼网络的听觉注意解码方法和装置,听觉注意解码方法包括:获取脑电信号序列数据,通过滑动窗口对脑电信号序列数据进行截取,得到多个脑电信号窗口数据;通过时空特征提取网络对脑电信号窗口数据进行特征提取,生成低密度时空特征;通过第一注意力精炼网络对低密度时空特征进行精炼处理,生成浅层高密度时空特征,通过第二注意力精炼网络浅层高密度时空特征进行处理,生成深层高密度时空特征;根据浅层高密度时空特征和深层高密度时空特征,生成听觉注意表示;根据听觉注意表示,生成脑电信号序列数据的听觉注意解码结果。本申请可以提高听觉注意解码准确度,解决了目前的听觉注意解码方法存在听觉注意解码准确度低的问题。
-
公开(公告)号:CN118315021A
公开(公告)日:2024-07-09
申请号:CN202410582955.6
申请日:2024-05-11
Applicant: 安徽大学
Abstract: 本发明公开了一种基于增强现实系统的手部主动康复方法,包括以下步骤:S1:采用增强现实系统扫描患者手部,获取患者手部特征并对患者手部空间进行建模;S2:计算增强现实系统与患者手部的交互区域,在交互区域生成虚拟图像,让患者进行人机交互;S3:采集交互过程中患者的运动数据;S4:根据步骤S3采集的运动数据计算患者的康复系数;S5:通过计算所得康复系数评估患者的康复情况。还公开了一种基于增强现实系统的手部主动康复的系统。本发明操作简便,将医疗康复与增强现实技术有效结合,减轻了病人的训练负担,同时运用该技术还能辅助评估、优化反馈,从而大大提高康复质量和效率。
-
-
-
-
-
-
-
-
-