一种教室智能照明系统
    1.
    发明公开

    公开(公告)号:CN107846761A

    公开(公告)日:2018-03-27

    申请号:CN201710966229.4

    申请日:2017-10-17

    Applicant: 安徽大学

    Abstract: 本发明公开了一种教室智能照明系统,包括:n个照明模块;第i个照明模块包括控制单元、照明单元、采集单元;照明单元用于根据控制单元的指令选择照明模式对i区域进行照明,采集单元用于采集i区域内的人数Ni以及亮度Di并将采集结果发送至控制单元;且第i个照明模块中的控制单元根据其采集单元的采集结果以及相邻照明模块中的采集单元的采集结果选择不同的照明策略,实现了多个照明模块间的协同配合工作,提高了多个照明模块照明策略选择的智能化和合理性;且每一个照明模块可根据自身对应的照明区域内的实际情况选择特定的照明策略,实现了每一个照明模块的单独工作模式,有利于保证保证照明策略的有效性。

    基于模态竞争协同网络的可见光红外目标跟踪方法及装置

    公开(公告)号:CN114332166A

    公开(公告)日:2022-04-12

    申请号:CN202111671516.5

    申请日:2021-12-31

    Applicant: 安徽大学

    Abstract: 本发明公开一种基于模态竞争协同网络的可见光红外目标跟踪方法及装置,方法包括:以所要跟踪当前帧的上一帧中目标预测位置为中心,生成第一候选样本集合;将第一候选样本集合输入至训练好的跟踪模型,得到当前帧的目标跟踪结果;跟踪模型包括特征提取网络和目标分类器;特征提取网络包括第一提取网络、第二提取网络和权重分配网络,第一提取网络和第二提取网络均包括VGG‑M的前三层卷积层,且每一卷积层中包含N个相同尺寸的卷积核形成卷积核组。通过引入卷积核组和多权重分配网络来生成多核动态协同的卷积核,利用卷积核组中包含的若干个卷积核,可以提取更多样的特征,达到良好的多模态视频跟踪效果。

    基于自适应感知的通用型多模态目标跟踪模型、训练方法、应用

    公开(公告)号:CN118674945A

    公开(公告)日:2024-09-20

    申请号:CN202410872684.8

    申请日:2024-07-01

    Applicant: 安徽大学

    Abstract: 本发明提供一种基于自适应感知的通用型多模态目标跟踪模型、训练方法、应用。具体的,在模型输入层,考虑到可见光模态比红外、深度和事件模态具有更加丰富的语义信息,为了更好的保留这些信息,为可见光模态单独设置了一个嵌入层,为红外、深度和事件模态设置一个共享的嵌入层,这样的设置同样也兼顾了输入层的灵活性,这为了能够对输入模态进行自适应感知,设计了一个简单有效的模态感知模块,能够同时进行特征提取、特征交互和模态感知。在多模态跟踪中,每个模态都包含一些与模态无关的信息,例如目标的形状、运动和上下文信息等。这些信息有助于捕捉不同模态之间共享的语义信息,从而协助模型理解目标的整体上下文。此外,承载着每种模态独特的视角和信息的模态特定特征也十分关键,它可以促进模型对整体信息的理解和处理能力。通过充分利用模态无关特征和模态特定特征,可以提高模型对复杂多模态数据的感知和分析水平,实现更准确、鲁棒的任务执行。

    基于多策略融合树的可见光红外视觉跟踪方法

    公开(公告)号:CN115018884B

    公开(公告)日:2024-03-15

    申请号:CN202210871982.6

    申请日:2022-07-19

    Applicant: 安徽大学

    Abstract: 本发明公开一种基于多策略融合树的可见光红外视觉跟踪方法,所述方法包括:获取可见光图像样本和热红外图像样本;将可见光图像样本和热红外图像样本输入至预先训练好的目标跟踪网络模型,目标跟踪网络模型包括可见光模态适配器、热红外模态适配器、融合树网络和实例适配器,各模态对应的适配器包括多个网络层级;融合树网络当前层级的输出特征与各模态对应的适配器当前层级的输出特征进行矩阵相加融合后传入各模态对应的适配器的下一层级网络中;将各模态对应的适配器最后一层级输出的模态特征图拼接后输入实例适配器,预测目标跟踪结果。本发明引入特殊的多策略融合树结构来实现多种不同融合策略的结合,以在复杂场景中获得稳健融合结果。

    联合令牌和特征对齐的自然语言行人检索方法及系统

    公开(公告)号:CN115311687A

    公开(公告)日:2022-11-08

    申请号:CN202210951558.2

    申请日:2022-08-09

    Applicant: 安徽大学

    Abstract: 本发明提供联合令牌和特征对齐的自然语言行人检索方法及系统包括:使用双流特征学习网络中的图像分支提取输入行人图像的视觉特征;使用双流特征学习网络中的文本分支提取输入行人描述的文本特征;对图像和文本分支提取到的全局特征图在特征空间内进行对齐;使用特征空间中对齐的图像全局特征生成令牌序列;在生成令牌序列和真实令牌序列之间进行令牌对齐;对图像和文本特征进行跨模态融合交互;联合令牌和特征对齐的自然语言行人检索模型训练;联合令牌和特征对齐的自然语言行人检索模型测试。本发明解决了歧义性嵌入、复杂度高、依赖预置数据以及模态距离、类内距离优化效果差的技术问题。

    基于多策略融合树的可见光红外视觉跟踪方法

    公开(公告)号:CN115018884A

    公开(公告)日:2022-09-06

    申请号:CN202210871982.6

    申请日:2022-07-19

    Applicant: 安徽大学

    Abstract: 本发明公开一种基于多策略融合树的可见光红外视觉跟踪方法,所述方法包括:获取可见光图像样本和热红外图像样本;将可见光图像样本和热红外图像样本输入至预先训练好的目标跟踪网络模型,目标跟踪网络模型包括可见光模态适配器、热红外模态适配器、融合树网络和实例适配器,各模态对应的适配器包括多个网络层级;融合树网络当前层级的输出特征与各模态对应的适配器当前层级的输出特征进行矩阵相加融合后传入各模态对应的适配器的下一层级网络中;将各模态对应的适配器最后一层级输出的模态特征图拼接后输入实例适配器,预测目标跟踪结果。本发明引入特殊的多策略融合树结构来实现多种不同融合策略的结合,以在复杂场景中获得稳健融合结果。

    基于元学习参数转移的可见光红外视觉跟踪方法

    公开(公告)号:CN114299114A

    公开(公告)日:2022-04-08

    申请号:CN202111625448.9

    申请日:2021-12-28

    Applicant: 安徽大学

    Abstract: 本发明公开了基于元学习参数转移的可见光红外视觉跟踪方法,所述方法包括:构建多模态视觉跟踪控制模型;将样本输入多模态视觉跟踪控制模型对其进行训练,样本包括多个热红外图像和其对应的可见光图像形成的多个图像对以及多个单独的可见光图像,训练过程中先向模型输入图像对进行第一预设次数的迭代训练,然后交替输入单独的可见光图像与图像对对模型继续训练第二预设次数,并且在交替训练过程中利用图像对进行模型训练的时候图像需要经过元学习器;训练完成以后模型跟踪,输出预测目标位置;本发明的优点在于:弥补训练集的不足,提升模型性能,解决现有技术因数据量有限而限制模型性能提升的问题。

Patent Agency Ranking