一种视频过滤设备及方法、视频显示系统

    公开(公告)号:CN107566903B

    公开(公告)日:2020-07-03

    申请号:CN201710812020.2

    申请日:2017-09-11

    Abstract: 本发明提出了一种视频过滤设备及方法、视频显示系统,该设备包括:信号输入接口、数据采集器、处理器和信号输出接口;该信号输入接口分别与视频源终端和数据采集器相连接,上述处理器分别与数据采集器和信号输出接口相连接,上述信号输出接口与显示终端相连接。本发明实施例通过给出一种独立的视频过滤设备,将该设备设置在视频源终端和显示终端之间,实时对播放前的视频进行不良信息的识别与拦截,不仅能够实现过滤不良信息,达到实时在线视觉防护的效果,提高了对视频播放的管控性,该设备使用方便,具有即插即用的特点,而且便于后续设备的检修、维护与升级,并且该设备对视频进行过滤时既不占用视频源终端的资源,也不占用显示终端的资源。

    一种视频过滤设备及方法、视频显示系统

    公开(公告)号:CN107566903A

    公开(公告)日:2018-01-09

    申请号:CN201710812020.2

    申请日:2017-09-11

    Abstract: 本发明提出了一种视频过滤设备及方法、视频显示系统,该设备包括:信号输入接口、数据采集器、处理器和信号输出接口;该信号输入接口分别与视频源终端和数据采集器相连接,上述处理器分别与数据采集器和信号输出接口相连接,上述信号输出接口与显示终端相连接。本发明实施例通过给出一种独立的视频过滤设备,将该设备设置在视频源终端和显示终端之间,实时对播放前的视频进行不良信息的识别与拦截,不仅能够实现过滤不良信息,达到实时在线视觉防护的效果,提高了对视频播放的管控性,该设备使用方便,具有即插即用的特点,而且便于后续设备的检修、维护与升级,并且该设备对视频进行过滤时既不占用视频源终端的资源,也不占用显示终端的资源。

    网址的判别方法及装置
    23.
    发明公开

    公开(公告)号:CN116248415A

    公开(公告)日:2023-06-09

    申请号:CN202310525769.4

    申请日:2023-05-11

    Abstract: 本发明提供了一种网址的判别方法及装置,方法包括:获取输入的待判别网址;解析待判别网址的特征参数,以及,根据特征参数确定待判别网址的特征向量值;将特征向量值输入至训练好的判别模型中,通过判别模型对特征向量值进行判别,得到判别结果,以根据判别结果确定待判别网址的网址类型。本发明利用判别模型直接对待判别网址进行判别,该判别模型针对待判别网址的特征参数进行处理,可以对任意待判别网址准确判别,提高判别效率。判别模型为基于卷积网络CNN和Transformer模型构建的模型,利用Transformer的全局性对特征之间的联系进行处理,利用卷积神经网络的局部性能够提高判别效率,快速且准确地判别任意网址。

    一种文本分类的方法、装置、电子设备及存储介质

    公开(公告)号:CN115982368A

    公开(公告)日:2023-04-18

    申请号:CN202310238892.8

    申请日:2023-03-14

    Abstract: 本发明涉及互联网技术领域,尤其提供了一种文本分类的方法、装置、电子设备及存储介质,该方法包括:获取待分类文本;将所述待分类文本划分为多个待分类语句;将多个所述待分类语句输入预设的文本分类模型,得到每个所述待分类语句对应的语句预测类别和所述待分类文本对应的辅助预测类别;其中,所述辅助预测类别用于表征文本整体篇章类别或者各语句预测类别中的多数类别。本申请提供的文本分类的方法将待分类文本中的全部语句作为预设的文本分类模型的输入,综合每一个待分类语句的语义得到每个待分类语句对应的语句预测类别,并且结合全部的待分类语句组成的整体篇章得到对应的辅助预测类别,这样可以有效地提高文本分类的准确性和可靠性。

    屏幕实时隐私保护方法和装置

    公开(公告)号:CN115935433A

    公开(公告)日:2023-04-07

    申请号:CN202310024081.8

    申请日:2023-01-09

    Abstract: 本发明提供了屏幕实时隐私保护方法和装置,包括:对第一视频流进行提取得到M帧图像;普通模式下,将每帧图像通过图像隐私区域检测算法得到图像组帧,将图像组帧进行组合后得到第二视频流;自适应模式下,从M帧图像中选取任一帧图像作为当前帧图像;通过图像相似性检测算法判断当前帧图像是否进行窗口检测;如果否,则将上一帧图像的模糊区域坐标进行模糊处理;如果是,则将当前帧图像通过图像隐私区域检测算法得到第一图像与模糊区域坐标,重复自适应模式的过程,直至每帧图像均被遍历;加速模式下,将M帧图像通过图像隐私区域检测算法,得到第二图像与模糊区域坐标;将第一图像与模糊区域坐标或第二图像与模糊区域坐标进行模糊处理。

    一种用于走字屏采集图像的文字识别处理方法

    公开(公告)号:CN112712080A

    公开(公告)日:2021-04-27

    申请号:CN202110021188.8

    申请日:2021-01-08

    Abstract: 本发明公开了一种用于走字屏采集图像的文字识别处理方法,文字检测模型输出的特征图上分别由文字区域和背景区域两种值,通过掩码从走字屏采集图像提取文字区域;文字识别模型的输入图像为预设尺寸,文字识别模型的输出为字符类别,通过查询类别值与计算机字符的映射关系得到字符区域文字区域;根据字符区域文字区域所在的行坐标进行聚合,并按照每个字符行坐标从左到右的顺序将字符组成字符串;文字检测模型的训练阶段引入文字边缘和文字间隙图像作为训练数据,推理阶段,当采样窗口的中心落在文字边缘或在两个文字的中间空隙时,将最终的特征值定义为背景。本发明能够模拟走字屏文字特征,生成特征训练数据,使得模型能够实现对走字屏文字的针对性训练,训练效果好。

    一种违禁物品识别设备及方法、X光行李安检系统

    公开(公告)号:CN107607562B

    公开(公告)日:2020-06-02

    申请号:CN201710812468.4

    申请日:2017-09-11

    Abstract: 本发明提出了一种违禁物品识别设备及方法、X光行李安检系统,该设备包括:信号输入接口、数据采集器、处理器和信号输出接口。本发明实施例通过给出一种独立的违禁物品识别设备,将该设备设置在X光安检仪和显示终端之间,实时对X光安检仪输出的图像进行违禁物品的识别与标注,能够便于工作人员快速地确定安检行李中是否存在违禁物品,无需工作人员结合X光安检仪输出的图像凭借经验人工识别,提高了工作人员的工作效率,进而可以加快行李传送带的运行速度,减少行李安检时间,同时,该设备使用方便,具有即插即用的特点,而且便于后续设备的检修、维护与升级,且该设备对图像进行识别时既不占用X光安检仪的资源,也不占用显示终端的资源。

    一种违禁物品识别设备及方法、X光行李安检系统

    公开(公告)号:CN107607562A

    公开(公告)日:2018-01-19

    申请号:CN201710812468.4

    申请日:2017-09-11

    Abstract: 本发明提出了一种违禁物品识别设备及方法、X光行李安检系统,该设备包括:信号输入接口、数据采集器、处理器和信号输出接口。本发明实施例通过给出一种独立的违禁物品识别设备,将该设备设置在X光安检仪和显示终端之间,实时对X光安检仪输出的图像进行违禁物品的识别与标注,能够便于工作人员快速地确定安检行李中是否存在违禁物品,无需工作人员结合X光安检仪输出的图像凭借经验人工识别,提高了工作人员的工作效率,进而可以加快行李传送带的运行速度,减少行李安检时间,同时,该设备使用方便,具有即插即用的特点,而且便于后续设备的检修、维护与升级,且该设备对图像进行识别时既不占用X光安检仪的资源,也不占用显示终端的资源。

    网址的判别方法及装置
    29.
    发明授权

    公开(公告)号:CN116248415B

    公开(公告)日:2023-08-15

    申请号:CN202310525769.4

    申请日:2023-05-11

    Abstract: 本发明提供了一种网址的判别方法及装置,方法包括:获取输入的待判别网址;解析待判别网址的特征参数,以及,根据特征参数确定待判别网址的特征向量值;将特征向量值输入至训练好的判别模型中,通过判别模型对特征向量值进行判别,得到判别结果,以根据判别结果确定待判别网址的网址类型。本发明利用判别模型直接对待判别网址进行判别,该判别模型针对待判别网址的特征参数进行处理,可以对任意待判别网址准确判别,提高判别效率。判别模型为基于卷积网络CNN和Transformer模型构建的模型,利用Transformer的全局性对特征之间的联系进行处理,利用卷积神经网络的局部性能够提高判别效率,快速且准确地判别任意网址。

    自动分割字符区域的图像文字检测模型训练方法及装置

    公开(公告)号:CN112733857B

    公开(公告)日:2021-10-15

    申请号:CN202110021189.2

    申请日:2021-01-08

    Abstract: 自动分割字符区域的图像文字检测模型训练方法及装置,使用多层卷积神经网络抽取图像特征,然后通过卷积层将通道数转换为类别个数;生成的是目标图像按比例缩小的特征图,每个像素点的值是对应的类别,将特征图放大至目标图像尺寸即可作为文字区域的掩码图;将掩码与原图叠加即可得到包含文字的区域子图像;能够识别一行文字中的间隙并标记为背景,从而在掩码图中每个文字字符都已分隔开,只需简单的图像处理操作即可得到单个字符的图像。本发明得到的文字检测模型能够完成字符级别的文字检测,在检测过程中直接划分字符区域,简化图像文字识别的流程,提高计算性能;能够自动构建海量训练数据提供丰富的特征信息,以低成本训练高质量模型。

Patent Agency Ranking