-
公开(公告)号:CN119939522A
公开(公告)日:2025-05-06
申请号:CN202510414705.6
申请日:2025-04-03
Applicant: 合肥工业大学
IPC: G06F18/25 , G06F18/2413 , G06F18/20 , G06N5/04 , G06F18/2415 , G06N3/042 , G06N3/0895
Abstract: 本发明公开了基于层次交互学习的对话情感和行为联合识别方法及系统,涉及自然语言处理和深度学习技术领域,方法为:获取对话数据集;构建说话者交互图,得到情感话语表示和行为话语表示;构建说话者交互图并得到各个话语的情感话语表示和行为话语表示;构建语义交互图并得到语义交互后的情感话语表示和行为话语表示,并映射到标签空间得到话语的预测情感标签和预测行为标签;构建标签交互图并得到标签交互后的情感标签表示和行为标签表示;基于单任务和多任务的多视角监督对比学习,计算模型总损失进行模型训练;利用训练后的模型对对话进行识别,识别对话中每个话语的行为标签和情感标签。本发明提升了对话情感和行为联合识别的性能。
-
公开(公告)号:CN119670022B
公开(公告)日:2025-05-06
申请号:CN202510186180.5
申请日:2025-02-20
Applicant: 合肥工业大学
Abstract: 本发明公开了一种基于扩散模型的远程生理信号估计方法及系统,涉及非接触式生理信号检测技术领域。扩散模型的训练过程为:对原始rPPG信号进行前向扩散得到噪声rPPG信号;对人脸视频进行特征提取得到多尺度时空图;对噪声rPPG信号和多尺度时空图进行融合;对融合数据进行后向扩散得到去噪后的数据;根据去噪后的数据输出预测rPPG信号;通过最小化预测rPPG信号与原始rPPG信号之间的差异,进行模型训练;利用训练后的扩散模型进行远程生理信号估计。本发明提高了rPPG信号估计的准确性。
-
公开(公告)号:CN119295886B
公开(公告)日:2025-04-18
申请号:CN202411844794.X
申请日:2024-12-16
Applicant: 齐鲁工业大学(山东省科学院) , 山东省人工智能研究院 , 山东省计算中心(国家超级计算济南中心) , 山东大学 , 浙江大华技术股份有限公司 , 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) , 合肥工业大学
IPC: G06V10/80 , G06V10/44 , G06V10/774 , G06V10/82 , G06V20/62 , G06N3/0464 , G06N3/08
Abstract: 本发明涉及一种基于多尺度特征融合的X‑ray图像违禁品检测方法,属于图像处理技术领域。其包括以下步骤:获取X‑ray违禁品数据集,并将数据集划分为训练集和测试集;构建基于多尺度特征融合的X‑ray图像违禁品目标检测模型,所述模型包括图像分支、自适应高低通滤波器模块、文本分支、Neck层和Head头;训练集中图像输入到模型中对模型进行训练;采用损失函数对模型进行优化,得到训练好的模型;测试集中图像输入到训练好的模型中,得到违禁品检测结果。本发明通过图像文本的联合训练,在实时监测任务中提升性能的同时更加高效,减少计算量和内存占用,解决了复杂场景中图像边界细节模糊问题。
-
公开(公告)号:CN119648534A
公开(公告)日:2025-03-18
申请号:CN202411799767.5
申请日:2024-12-09
Applicant: 合肥工业大学
IPC: G06T3/4053 , G06T3/4046 , G06T5/70 , G06N3/0499 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明提供一种盲图像超分辨率重建方法及系统,属于图像重建技术领域,获取被破坏的低分辨率图像;利用预先训练好的扩散超分辨模型,对获取的被破坏的低分辨率图像进行处理,得到超分辨率图像;其中,扩散超分辨模型在最大后验概率框架下构建盲超分辨率问题,并随着去噪概率扩散模型的逆过程展开。本发明解决单图像超分辨率中的盲退化设置问题,将基于最大后验概率的优化集成到DM中,构建了低分辨率观测、高分辨率数据和退化核的联合分布,以提供数据和核的先验信息,并通过展开最大后验概率方法与反向过程来解决盲SR问题。
-
公开(公告)号:CN113553860B
公开(公告)日:2025-03-04
申请号:CN202110651374.X
申请日:2021-06-10
Applicant: 合肥工业大学 , 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室)
IPC: G06F40/35 , G06F40/126 , G06F40/242 , G06N3/0442 , G06N3/0455 , G06N3/096
Abstract: 本发明提供一种基于多任务学习的回复多样性多轮对话生成方法、系统、存储介质和电子设备,涉及多轮对话生成技术领域。本发明首先构建多任务学习模型,所述多任务学习模型包括预先训练的多轮对话模型和VAE模型,所述多轮对话模型包括话语级编码器、话语间编码器和第一解码器;将预处理后的多轮对话历史信息中的每个句子序列向量依次输入所述话语级编码器和话语间编码器,获取包含整个所述多轮对话历史信息的隐藏向量;将所述隐藏向量输入第一解码器,所述第一解码器的参数加载自所述VAE模型中的第二解码器参数,获取回复句子序列。将VAE模型解码器参数与多轮对话生成模型共享,增强了多轮对话生成模型里解码器的解码能力,提高了生成回复的文本质量。
-
公开(公告)号:CN119006461B
公开(公告)日:2024-12-24
申请号:CN202411482098.9
申请日:2024-10-23
Applicant: 合肥工业大学
IPC: G06T7/00 , G06N3/047 , G06N3/094 , G06T5/50 , G06V10/764
Abstract: 本发明公开了一种针对人工智能合成图像的对抗鲁棒鉴伪方法,涉及图像检测和深度学习技术领域,在预训练模型后面连接一个附加模型,构成组合模型,用于对人工智能合成图像进行检测;组合模型的训练过程中,仅对附加模型的参数θ’进行更新,基于能量观点生成远离干净样本的对抗样本xf;分别对pθ’(xf|x)、pθ’(y|xf,x)、pθ’(x)进行优化设计;将pθ’(xf|x)、pθ’(y|xf,x)、pθ’(x)的梯度求和得到模型优化的最终梯度hθ’;根据最终梯度hθ’更新参数θ’,完成模型训练。本发明是一种轻量且通用的黑盒防御方法,保证AIGI检测的准确率且具有较高鲁棒性。
-
公开(公告)号:CN119006461A
公开(公告)日:2024-11-22
申请号:CN202411482098.9
申请日:2024-10-23
Applicant: 合肥工业大学
IPC: G06T7/00 , G06N3/047 , G06N3/094 , G06T5/50 , G06V10/764
Abstract: 本发明公开了一种针对人工智能合成图像的对抗鲁棒鉴伪方法,涉及图像检测和深度学习技术领域,在预训练模型后面连接一个附加模型,构成组合模型,用于对人工智能合成图像进行检测;组合模型的训练过程中,仅对附加模型的参数θ’进行更新,基于能量观点生成远离干净样本的对抗样本xf;分别对pθ’(xf |x)、pθ’(y|xf,x)、pθ’(x)进行优化设计;将pθ’(xf |x)、pθ’(y|xf,x)、pθ’(x)的梯度求和得到模型优化的最终梯度hθ’;根据最终梯度hθ’更新参数θ’,完成模型训练。本发明是一种轻量且通用的黑盒防御方法,保证AIGI检测的准确率且具有较高鲁棒性。
-
公开(公告)号:CN113836298B
公开(公告)日:2024-08-20
申请号:CN202110894298.5
申请日:2021-08-05
Applicant: 合肥工业大学
IPC: G06F16/35 , G06F40/30 , G06F18/214 , G06F18/25
Abstract: 本发明提供一种基于视觉增强的文本分类方法和系统,涉及计算机视觉以及自然语言理解技术领域,本发明通过注意力机制实现了获取基于图像辅助信息的语义表示和基于文本语义的图像特征表示,充分考虑了图像信息包含的复杂内容以及图像信息和文本之间的相互影响关系,减少文本语义表达过程中的噪声信息的引入,最终实现了对文本语义的准确理解以及提高文本分类的准确性。
-
公开(公告)号:CN118504690A
公开(公告)日:2024-08-16
申请号:CN202410660045.5
申请日:2024-05-27
Applicant: 合肥工业大学
Abstract: 本发明公开了一种针对公平感知认知诊断任务的路径因果推理的答题预测方法,包括:1,建立包含敏感属性的认知诊断任务因果图,并用于构建深度神经网络模型;2,建立基于交叉熵损失的混合损失函数;3,在教育数据集上训练深度神经网络模型;4,利用训练好的网络模型对学生答题能力进行预测。本发明能够有效去除教育数据集中敏感属性所带来的偏差,从而实现更加公平的答题能力预测。
-
公开(公告)号:CN114898418B
公开(公告)日:2024-08-02
申请号:CN202210293506.0
申请日:2022-03-24
Applicant: 合肥工业大学
Abstract: 本发明提供一种基于环形模型的复杂情绪检测方法、系统、存储介质和电子设备,涉及情绪检测技术领域。本发明预先构建深度学习模型,包括基础提取模块,人脸特征矫正模块和特征融合模块;收集并预处理待测人员的人脸图片;将预处理后的人脸图片输入所述基础提取模块,获取第一特征图;将所述第一特征图输入所述人脸特征矫正模块,获取关注人脸关键点区域的第二特征图;将所述第二特征图输入所述特征融合模块,再通过全连接层获取该人脸图片对应的唤醒度和效价的预测值;根据所述唤醒度和效价的预测值,结合预设的向量映射坐标图,映射所述待测人员的情绪状态。弥补了由于数据集标签限制,导致一些情绪如焦虑、抑郁等,无法检测的技术空白。
-
-
-
-
-
-
-
-
-