一种基于人体头顶部识别的行人统计方法及装置

    公开(公告)号:CN106530310A

    公开(公告)日:2017-03-22

    申请号:CN201610931928.0

    申请日:2016-10-25

    Applicant: 深圳大学

    CPC classification number: G06K9/00 G06T7/11 G06T7/194 G06T7/20 H04N5/33

    Abstract: 本发明适用图像识别技术领域,提供了一种基于人体头顶部识别的行人统计方法及装置,该方法包括:读取通过深度摄像头拍摄的行人深度图像,将行人深度图像和预先获取的环境均值图像比较,以得到前景图像;将前景图像分割为多个区域,检测每个区域的边缘像素点是否存在阶跃,并检测每个区域形成的区域曲面是否与人体头顶部曲面一致;当当前被检测区域的边缘像素点存在阶跃、且当前被检测区域形成的区域曲面与人体头顶部曲面一致时,则确定当前被检测区域为人体头顶部区域;根据从行人深度图像中确定的人体头顶部区域和从相邻行人深度图像中确定的人体头顶部区域,统计输出行人的数量,提高了人体头顶部的识别准确率,实现了行人的精确统计。

    一种图像内容认证方法与系统

    公开(公告)号:CN103426141B

    公开(公告)日:2016-08-10

    申请号:CN201310347868.4

    申请日:2013-08-09

    Applicant: 深圳大学

    Abstract: 本发明属于数字水印技术领域,提供了一种图像内容认证方法与系统。该方法及系统是利用了AMBTC算法来指导数字水印的嵌入和提取,通过调整输入图像的每一像素块中各像素点的像素值,使得每一像素块的低均值和高均值的奇偶性相应地等于待嵌入的2比特水印。由于并不对图像进行真正的BTC压缩,而是利用AMBTC量化数据来指导水印嵌入和抽取过程,因此在保证图像的质量的同时,实现了半脆弱水印的图像认证。另外,该方法及系统使用了基于像素域的嵌入机制和基于压缩域的提取机制,可以有效抵制亮度和对比度变化的操作,同时对其他操作表现出良好的脆弱性。

    将秘密信息写入视频的方法和系统、视频认证方法和系统

    公开(公告)号:CN105592323A

    公开(公告)日:2016-05-18

    申请号:CN201610156127.1

    申请日:2016-03-18

    Applicant: 深圳大学

    Abstract: 本发明涉及一种将秘密信息写入视频的方法和系统、视频认证方法和系统。本发明将视频帧图像作为平面,在该平面构造曲线函数,按照曲线函数从视频每帧图像中按序选定像素点,获得这些有序像素点的R值、G值、B值排列,必要时分别调整各排列中某些像素点的R值、G值或B值,使各排列的逆序数奇偶性分别对应待写入的秘密信息,从而嵌入秘密信息。本发明中,视频的每帧图像中只需提取很小部分像素,利用这部分像素的三个颜色通道值的排列的逆序数奇偶性就可分别表示三个比特位值,对视频图像的破坏性很小。同时,由于秘密信息的每个比特位都以某帧图像中提取出的像素的某个颜色通道值的排列逆序数表示,使得秘密信息隐藏更隐蔽,脆弱性更好。

    一种隐匿通信方法及系统

    公开(公告)号:CN103281178A

    公开(公告)日:2013-09-04

    申请号:CN201310228111.3

    申请日:2013-06-08

    Applicant: 深圳大学

    Abstract: 本发明属于信息隐藏传输技术领域,提供了一种隐匿通信方法及系统。该方法及系统通过调整载体图像的相邻图像块之间、相邻行/列的各像素值(不包括行的首尾像素值)排列逆序数的奇偶性来嵌入秘密比特数值。根据逆序数的性质易知,对图像每一分块不需进行超过1对像素点的改变就可以嵌入1比特数值,从而可以保证隐匿图像的质量,另外,载体图像所分的块除了最右面和最下面的边界块,每个块右相邻的块和下相邻的块,从而使得载体图像的嵌入容量几乎提高了1倍,本发明方法较好地解决了当前基于图像的隐匿通信方法中嵌入容量都比较小的问题,拓展了利用图像对秘密信息进行隐匿传输的适用范围。

    一种智能展厅的智能显示系统

    公开(公告)号:CN116719176B

    公开(公告)日:2023-09-29

    申请号:CN202311004565.2

    申请日:2023-08-10

    Abstract: 本发明涉及投影技术领域,特别涉及一种智能展厅的智能显示系统。针对现有展厅显示系统的交互方式单一以及显示内容有限的问题,所采用的方案为:系统包括全息投影模块、裸眼3D显示模块、场景化还原模块、互动投影模块、体感交互模块,全息投影模块用于向观展者提供展品的三维影像;裸眼3D显示模块用于向观展者提供展品的三维影像;场景化还原模块用于向观展者展示与展品相关的还原场景;互动投影模块用于供观展者与投影内容互动;体感交互模块用于供观展者通过肢体动作实现与展品的互动。通过前述方案,观展者在展厅观展时,能获得多维度的显示效果,不再局限于二维显示和单一的观看角度,能获得更多的三维效果;同时交互方式也多样化。

    一种智能展厅的智能显示系统

    公开(公告)号:CN116719176A

    公开(公告)日:2023-09-08

    申请号:CN202311004565.2

    申请日:2023-08-10

    Abstract: 本发明涉及投影技术领域,特别涉及一种智能展厅的智能显示系统。针对现有展厅显示系统的交互方式单一以及显示内容有限的问题,所采用的方案为:系统包括全息投影模块、裸眼3D显示模块、场景化还原模块、互动投影模块、体感交互模块,全息投影模块用于向观展者提供展品的三维影像;裸眼3D显示模块用于向观展者提供展品的三维影像;场景化还原模块用于向观展者展示与展品相关的还原场景;互动投影模块用于供观展者与投影内容互动;体感交互模块用于供观展者通过肢体动作实现与展品的互动。通过前述方案,观展者在展厅观展时,能获得多维度的显示效果,不再局限于二维显示和单一的观看角度,能获得更多的三维效果;同时交互方式也多样化。

    基于yolov4的口罩检测方法

    公开(公告)号:CN113762201B

    公开(公告)日:2023-05-09

    申请号:CN202111088283.6

    申请日:2021-09-16

    Applicant: 深圳大学

    Abstract: 本发明实施例公开了一种基于yolov4的口罩检测方法,包括:步骤1:采集公共场合下人们佩戴口罩和未佩戴口罩的图像,制作训练集;步骤2:构建预设YOLOV4目标检测模型;步骤3:将训练集放入预设YOLOV4目标检测模型中训练;步骤4:通过所述训练后的预设YOLOV4目标检测模型对待检测视频流或图片进行检测,判断视频流或图片中的每一个人脸目标是否佩戴口罩。本发明针对口罩佩戴检测的一般场景,采用对Backbone网络部分更改为MobileNetV3结构,使用深度可分离卷积代替整个网络结构中的普通卷积,MobileNetV3结构体积小、计算效率高,对MobileNetV3结构里的SE注意力机制模块更改为CA注意力机制,将位置信息嵌入到通道注意力中,增强特征表达能力,加强对图片或视频区域的口罩检测。

    一种自然场景图像文本检测方法、存储介质及终端设备

    公开(公告)号:CN111242125B

    公开(公告)日:2023-05-02

    申请号:CN202010040806.9

    申请日:2020-01-14

    Applicant: 深圳大学

    Abstract: 本发明公开一种自然场景图像文本检测方法、存储介质及终端设备,方法包括步骤:采用深度卷积神经网络模型对待检测图像进行特征提取处理,得到四个阶段的基本特征图;对所述四个阶段的基本特征图进行融合处理,得到三个阶段的深度融合特征图;采用改进的Inception模块对所述三个阶段的深度融合特征图进行聚合操作,得到文本区域概率预测特征图和文本区域位置预测特征图;对所述文本区域概率预测特征图和所述文本区域位置预测特征图进行算法处理,得到自然场景图像中文本的位置。本发明利用多阶段的特征图进行融合,将深度卷积神经网络早期阶段的图像特征信息用于最终的特征图聚合,可有效提高自然场景图像文本检测的准确率。

    一种基于神经网络的图像超分辨率重建方法及设备

    公开(公告)号:CN111429352B

    公开(公告)日:2023-04-18

    申请号:CN202010221409.1

    申请日:2020-03-26

    Applicant: 深圳大学

    Abstract: 本发明提供了一种基于神经网络的图像超分辨率重建方法及设备,通过在超分网络中构建感受野与通道融合模块,所述感受野与通道融合模块包含多个含有感受野融合单元和通道信息融合单元的信息融合组。通过各个信息融合组中的感受野融合单元和通道信息融合单元对输入的特征图进行迭代信息融合,最后得到重建出的超分辨率图像。其中,利用感受野融合单元提升网络感受野,提高了网络对输入图像信息中不同区域信息密度差别的适应性,以及通过通道信息融合单元提供更多特征信息,缓解空间特征提取的压力,加快网络训练速度,提高网络效率,因此提升网络的自适应能力和鲁棒性。

Patent Agency Ranking