-
公开(公告)号:CN108710895B
公开(公告)日:2022-03-22
申请号:CN201810366834.2
申请日:2018-04-23
Applicant: 安徽大学
IPC: G06K9/62
Abstract: 本发明公开了一种基于独立分量分析的运动想象脑电信号分类方法,包括以下步骤:S1:采集脑电信号并对脑电信号进行预处理,将预处理后的脑电信号随机分为训练集和测试集;S2:将训练集数据依次选择单次试验样本数据进行独立分量分析计算,并基于源的空间分布模式实现运动相关分量的自动识别获取;S3:基于零训练分类器的运动想象分类识别;S4:使用训练集数据进行导联的优化选择,将优化后的导联代入测试集,循环步骤S2和S3,得到最终的分类识别率。本发明可以减少由采集的EEG数据之间的差异性所带来的空域模型匹配问题产生,对运动想象EEG信号具有较高的识别正确率。
-
公开(公告)号:CN113128353A
公开(公告)日:2021-07-16
申请号:CN202110327248.9
申请日:2021-03-26
Applicant: 安徽大学
Abstract: 本发明公开了一种面向自然人机交互的情绪感知方法,包括以下步骤:S1:采集积极、平和、消极情感状态下的头皮脑电信号;S2:对步骤S1采集的数据进行预处理;S3:构建训练样本和测试样本;S4:训练深度卷积神经网络;S5:测试集测试分类效果。还公开了一种面向自然人机交互的情绪感知系统。本发明通过时空深度卷积神经网络学习脑电信号中的高维时空特征信息,以实现对情感识别任务的效率和准确率提升的脑电信号情感识别方法。本发明克服先进行特征提取后再输入卷积神经网络中产生的丢失部分有用脑电特征信息、特征提取有用性验证的问题,减少情感识别的复杂性,提高情感识别的效率和准确率。
-
公开(公告)号:CN112102949A
公开(公告)日:2020-12-18
申请号:CN202010894355.5
申请日:2020-08-31
Applicant: 安徽大学
IPC: G16H50/30 , G06K9/00 , A61B5/0205
Abstract: 本发明公开了一种面部血流脉冲信号和面部器官运动特征提取方法,利用本发明的稳定性好、抗干扰能力强的面部视频采集设备拍摄高质量面部视频,再利用信号处理技术对面部视频序列空间滤波、预处理,然后经ICA盲源分离算法分离得到面部血流脉冲信号和面部器官运动特征,最后针对ICA的排序模糊的问题,采用一种基于SNR和谱峭度的BVP自动提取方法,计算出心率、呼吸率的生命体征参数。本发明不仅可以提取BVP信号,进而获得心率、呼吸率等生命体征参数,还能对面部器官动作相关的信号成分进行检测,如眼动特征检测和唇部运动特征检测等,为表情分析、情感识别、疲劳监测和心理状态评估等提供方便适用的穿戴式面部视频采集装置及其方法。
-
公开(公告)号:CN107480716A
公开(公告)日:2017-12-15
申请号:CN201710695447.9
申请日:2017-08-15
Applicant: 安徽大学
IPC: G06K9/62 , G06K9/00 , A61B5/0496
Abstract: 本发明公开一种结合EOG和视频的扫视信号识别方法及系统,属于眼电图技术领域,包括:同步采集扫视动作的EOG数据与视频数据;对EOG数据和视频数据进行预处理;对EOG数据采集通道进行端点检测,得到端点检测结果;将端点检测结果应用于EOG与视频两种模态下的有效眼动数据段检测,将有效眼动数据分为训练集和测试集;对训练集和测试集中两种模态下的数据进行特征提取得到有效眼动数据的特征;将两种模态下有效眼动数据的特征进行融合;将融合后扫视特征参数送入SVM分类器中进行训练,得到分类模型;利用测试集中数据对分类模型进行测试,得到测试后分类模型以进行信号识别。本发明中融合后的特征具有更多互补信息,提高了信号识别鲁棒性。
-
公开(公告)号:CN107480635A
公开(公告)日:2017-12-15
申请号:CN201710695421.4
申请日:2017-08-15
Applicant: 安徽大学
Abstract: 本发明公开了一种基于双模态分类模型融合的扫视信号识别方法及系统,属于眼电图技术领域,方法包括:同步采集受试者不同扫视动作类别的EOG数据和视频数据;对EOG数据和视频数据分别进行预处理;对EOG数据和视频数据进行端点检测;选择EOG数据端点检测结果和视频数据端点检测结果中有效数据较长端点作为最终的端点检测结果;将两种模态下的有效眼动数据段分成训练集和测试集并进行特征参数提取;将两种模态下有效眼动数据特征参数送入SVM分类器中进行训练,得到两种分类模型;对两种分类模型进行融合;利用测试集中的数据对模型融合进行测试以对扫视信号进行识别。本发明中融合后的特征具有更多互补信息,提高了信号识别鲁棒性。
-
公开(公告)号:CN107450730A
公开(公告)日:2017-12-08
申请号:CN201710695419.7
申请日:2017-08-15
Applicant: 安徽大学
Abstract: 本发明公开了一种基于卷积混合模型的慢速眼动识别方法及系统,属于眼电图技术领域,包括采用复值ICA算法对各频点的眼动数据进行盲源分离,得到各独立源信号在相应频点上的频域独立分量;对各频点上的独立分量进行尺度补偿,还原独立分量在观测分量中的真实比例成分;采用约束DOA算法对补偿后的独立分量进行排序调整;对尺度补偿后和排序后的各频点的独立分量进行短时傅里叶逆变换处理,得到时域上多通道独立源完整的时间信号;对多通道独立源完整的时间信号进行小波分解,将得到的分解结果与慢速眼动的评判标准进行对比与分析,与慢速眼动特征均相符的则识别为慢速眼动。本发明在时域中对多通道EOG信号进行小波分析,由于没有其他源信号的干扰能快速的从EOG信号中提取出慢速眼动。
-
公开(公告)号:CN102589536A
公开(公告)日:2012-07-18
申请号:CN201210034050.2
申请日:2012-02-15
Applicant: 安徽大学
Abstract: 本发明公开了一种具有自校正功能的电子罗盘设计,包括电路板、电路部分和磁感应传感器组,电路部分和磁感应传感器组安装在电路板上,磁感应传感器组由至少不少于4个沿360度圆环形等角度分布的磁感应传感器构成,电路部分中对应每个磁感应传感器均设有外围电路,且相隔90度夹角的两个磁感应传感器连接在同一个外围电路上。本发明不需要在通过转动电子罗盘来采集环境中的磁场信息并进行补偿,使用更加方便,同时有效地提高了电子罗盘对周围干扰磁场的抗干扰性能,且本发明结构简单,可通过进一步提高测量精度并可根据精度需要来设置相应的磁感应传感器数量。
-
公开(公告)号:CN118940031A
公开(公告)日:2024-11-12
申请号:CN202410965778.X
申请日:2024-07-18
Applicant: 安徽大学
IPC: G06F18/214 , G06F18/241 , G06F18/20 , G06N3/0464 , G06N3/0442
Abstract: 本发明公开了一种基于扩散增强的多尺度时空感知的脑电数据扩增方法,包括以下步骤:S1:采集用户的脑电数据进行预处理,并转化为二维矩阵阵列;S2:将所有用户的数据进行对齐标准化,并划分为训练集与测试集;S3:构建扩散增强模型,利用训练集数据训练扩散增强模型;S4:构建并训练多尺度时空感知模型;S5:通过训练好的扩散增强模型生成增强样本,将增强样本与真实样本混合输入到多尺度时空感知模型中进行微调,得到训练好的多尺度时空感知模型;S6:将测试集输入到训练好的多尺度时空感知模型中,得到分类好的情感标签。还公开了一种基于扩散增强的多尺度时空感知的脑电数据扩增系统。本发明能端到端地实现高准确度的情感识别。
-
公开(公告)号:CN117854744A
公开(公告)日:2024-04-09
申请号:CN202311689333.5
申请日:2023-12-05
Applicant: 安徽大学
IPC: G16H80/00 , G16H50/20 , G16H10/60 , G06F18/10 , G06F18/2131 , G06F18/22 , G06F40/30 , A61B5/378 , A61B5/00 , A61B5/372
Abstract: 本发明公开了一种基于SSVEP脑电信号的智能查房方法和系统,方法包括:获取用户在视觉刺激下的第一脑电信号并定义参考信号;将第一脑电信号分解为子带分量,计算子带分量自身、参考信号自身以及子带分量与参考信号之间的差异,获取每个子带分量的总空间滤波器并滤波,重新排列成第二脑电信号;采用变分模态分解获取多个变分模态分量,并对每个通道下的权重进行寻优以重构得到第三脑电信号;基于第三脑电信号的自特征、参考信号获取诱发刺激频率确定用户意图,完成智能查房。本方法通过多次对信号分解与重构,增强有效部分使得具有更高的信噪比,并采用平均特征进一步保证了频率识别的准确性,大大提高了用户与医护人员进行沟通交流的能力。
-
公开(公告)号:CN117195153A
公开(公告)日:2023-12-08
申请号:CN202311217545.3
申请日:2023-09-20
Applicant: 安徽大学
IPC: G06F18/25 , G06F18/213 , G06F18/214 , G06N3/045 , G06N3/0895 , G06N3/09 , G06F18/2411 , G06F123/02
Abstract: 本发明公开了一种基于对比性学习的EEG‑EOG多模态情感识别方法,包括以下步骤:S1:设计实验范式;S2:采集受试者的EEG信号和EOG信号;S3:数据预处理;S4:对比学习:采用一个基编码器和投影模块来对齐同一被试者的EEG和EOG信号片段的小批量数据,并不断优化基编码器和投影模块的参数;S5:使用预训练后的基编码器从对齐的EEG和EOG信号表征中提取DE情感特征;S6:分类识别,得到情感识别的识别率。还公开了一种基于对比性学习的EEG‑EOG多模态情感识别系统。本发明基于对比性学习方法,预训练基编码器来对齐EEG和EOG信号,从而实现多模态信号的融合,提高情感识别的识别率。
-
-
-
-
-
-
-
-
-