一种基于条件变分Transformer和自省对抗学习的多样化图像描述方法

    公开(公告)号:CN116824584A

    公开(公告)日:2023-09-29

    申请号:CN202310804760.7

    申请日:2023-07-03

    Abstract: 本发明公开了一种基于条件变分Transformer和自省对抗学习的多样化图像描述方法,包括:提取图像的区域特征得到输入向量输入至预设的条件变分Transformer模型,得到图像的相应描述语句;该模型包括变分推断编码器和生成器;将模型使用序列化条件自编码中的变分下界机理进行预训练;再采用自省对抗学习策略进行微调,在不额外添加判别器的前提下,通过对抗学习自我评估生成的描述语句来实现图像描述的多样化。本发明采用序列化条件变分自编码架构,与条件变分Transformer模型相结合,解决了模型受限于单一映射的问题;采用自省对抗学习策略,缓解了模型受限于人工评价指标的问题,提升了多样化图像描述的性能。

    一种基于结构先验与多尺度特征融合的细粒度目标检测方法

    公开(公告)号:CN116310834A

    公开(公告)日:2023-06-23

    申请号:CN202310320214.6

    申请日:2023-03-29

    Abstract: 本发明提出一种基于结构先验与多尺度特征融合的细粒度目标检测方法,该方法包括:步骤1,获取细粒度遥感图像数据集;步骤2,搭建改进Oriented R‑CNN的网络模型,由主干网络ResNet50与特征金字塔网络FPN得到图片的多尺度特征,并利用Canny边缘检测算法对输入图片进行边缘检测得到边缘检测结果,将边缘检测结果与多尺度特征进行融合得到融合特征,作为Oriented RPN的输入,根据Oriented RPN输出的定位结果,使用特征提取算法从融合特征中提取特征,将特征提取的结果输入到头部分类网络与头部定位网络中;步骤3,利用遥感数据集对步骤2中搭建的目标检测模型进行训练;步骤4,使用训练好的遥感图像目标检测模型对遥感图像进行检测以获得遥感图像中目标的定位和分类。

    一种针对密集区域的两阶段遥感图像目标检测方法

    公开(公告)号:CN111259758B

    公开(公告)日:2023-04-07

    申请号:CN202010030047.8

    申请日:2020-01-13

    Abstract: 本发明公开了一种针对密集区域的两阶段遥感图像目标检测方法,主要解决现有技术对目标密集区域目标识别准确率低的问题,其步骤为:1、对于输入图像进行数据增强操作,增加训练样本集;2、构建基于多尺度特征提取模块;3、在不同尺度的特征图上进行目标检测,找出目标密集的区域;4、针对目标密集的区域进行二次目标检测;5、对检测出的目标进行分类和位置回归,输出目标对应的分类标签和位置坐标,完成对图像的目标识别和定位。本发明利用网络多尺度结构的特点提取和融合不同尺度下的特征图来检测不同大小的目标,并对目标密集度高的区域进行二次检测,提高了小目标识别准确率。该方法可用于无人机以及卫星对目标的检测,侦查和监视。

    一种面向自监督视频目标分割的黑盒攻击方法

    公开(公告)号:CN115393776A

    公开(公告)日:2022-11-25

    申请号:CN202211148006.4

    申请日:2022-09-20

    Abstract: 本发明公开了一种面向自监督视频目标分割的黑盒攻击方法,基于亲和矩阵的自监督视频目标分割模型学习视频序列的特征表示从而实现强大的像素对应关系。首先基于初始化随机产生的对抗扰动,构建针对单帧、双帧和多帧的对比损失,进行迭代优化;然后设计特征损失增强黑盒攻击所生成对抗样本的可转移性;采用像素级损失使生成的对抗样本噪声不可感知;构建多路径聚合模块获得迭代优化的对抗性扰动并将其添加到原始视频帧产生对抗样本;最终将对抗视频输入自监督视频目标分割网络得到最终预测掩码。本发明对自监督视频目标分割模型的黑盒攻击方法的研究识别了分割算法的脆弱性,能够进一步提升自监督视频目标分割任务的安全性和鲁棒性。

    基于自适应注意力与时空关联的面部动作单元识别方法及装置

    公开(公告)号:CN114842542A

    公开(公告)日:2022-08-02

    申请号:CN202210606040.5

    申请日:2022-05-31

    Abstract: 本发明公开了一种基于自适应注意力与时空关联的面部动作单元识别方法及装置,先从视频数据中抽取模型训练所需要的原始连续图像帧组成训练数据集,再对原始图像帧进行预处理得到扩增图像帧序列,再构建卷积神经网络模块I提取扩增图像帧的分层多尺度区域特征,再构建卷积神经网络模块II进行面部动作单元自适应注意力回归学习,再构建自适应时空图卷积神经网络模块III学习面部动作单元时空关联,最后构建全连接层模块IV进行面部动作单元识别。本发明采用端到端的深度学习框架学习动作单元识别,利用面部动作单元之间的相互依赖关系以及时空相关性,能够有效识别面部肌肉在二维图像中的运动情况,实现面部动作单元识别系统构建。

    一种基于注意力多模态特征融合的无监督RGB-T目标跟踪方法

    公开(公告)号:CN114494354A

    公开(公告)日:2022-05-13

    申请号:CN202210138232.8

    申请日:2022-02-15

    Abstract: 本发明公开了一种基于注意力多模态特征融合的无监督RGB‑T目标跟踪方法,先采用分层卷积神经网络来提取RGB图像和热红外图像的特征;再使用特征融合模块将来自不同水平及不同模态的特征进行同步融合;再对融合得到的特征进行两次前向跟踪得到响应图;接着,将融合特征逆序,原先的模板图作为搜索图,搜索图作为模板图,生成的响应图作为伪标签进行反向跟踪得到最终的响应图;然后,最小化反向跟踪得到的响应图与原始标签之间的一致性损失进行无监督训练;最后,将测试视频帧输入训练好的网络进行前向跟踪得到响应图即为预测的目标位置。本发明方法可以充分利用多层次、多模态信息并能发挥无监督学习的优势。

Patent Agency Ranking