-
公开(公告)号:CN119942450A
公开(公告)日:2025-05-06
申请号:CN202510026847.5
申请日:2025-01-08
Applicant: 安徽省赛达科技有限责任公司
IPC: G06V20/52 , G08B17/12 , G06V20/40 , G06V20/70 , G06V10/25 , G06V10/28 , G06T5/94 , G06T7/90 , G06T7/62 , G06V10/764 , G06V10/82
Abstract: 本发明公开了一种基于AI视频分析的主动式告警信息生成方法及系统,属于视频监控技术领域,具体包括:创建烟火检测任务,选择对应的视频分析算法并绘制识别区域;调整摄像机镜头景深为浅景深,使识别区域虚化,标记已知光源的虚化光斑;当识别区域内出现未标记的虚化光斑时,识别虚化光斑的色温值和光斑最大直径,将色温值和光斑符合设定的虚化光斑标记为待定光斑,并将待定光斑的最小外接矩形区域标记为目标区域;调整摄像机镜头景深为深景深,再次采集图像帧,裁切目标区域对应的图像块,将图像块输入预设的图像识别模型,输出图像块的识别结果,当识别结果为烟火时,触发告警推送,否则继续监测。
-
公开(公告)号:CN119942341A
公开(公告)日:2025-05-06
申请号:CN202510053440.1
申请日:2025-01-14
Applicant: 中国人民解放军网络空间部队信息工程大学
IPC: G06V20/10 , G06V20/70 , G06V10/26 , G06V10/764 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/0475 , G06N3/08
Abstract: 本发明公开一种基于CLIP模型的地理场景图生成方法和系统,该方法包括:步骤一:收集地理影像构建地理场景图数据集;步骤二:将地理场景图数据集中的训练图像输入预设的地理场景图生成单元中,得到训练图像对应的地理场景图;步骤三:根据地理场景图得到地理场景图生成单元的精准率、召回率和平均召回率,根据精准率、召回率和平均召回率对地理场景图生成单元进行优化,得到最优的地理场景图生成单元;步骤四:将目标图像输入到最优的地理场景图生成单元中,得到目标图像对应的预测三元组和地理场景图。本发明的地物分类更加完整,关系预测的准确性和可靠性更高,生成的地理场景图信息更加丰富和实用,可为高层次地理场景理解任务提供支撑。
-
公开(公告)号:CN119942263A
公开(公告)日:2025-05-06
申请号:CN202411946916.6
申请日:2024-12-27
Applicant: 中国船舶集团有限公司系统工程研究院 , 中船智海创新研究院有限公司
Abstract: 本发明提供图像样本的增广方法及装置,包括:获取晴天海面图像;采用预先建立的大气散射模型,生成与所述晴天海面图像对应的雾天海面图像,其中,所述预先建立的大气散射模型是根据入射光衰减模型中x=0处的光照强度,大气光透射率和无穷远处的大气光强确定的;根据所述雾天海面图像,对样本库数据进行增广,本申请实施例分析雾天图像降质原因以及大气散射模型的优势,在雾天天气下,入射光衰减模型与大气光成像模型共同作用,故本研究基于大气散射模型进行海上雾天图像样本增广,效果较好。
-
公开(公告)号:CN119942260A
公开(公告)日:2025-05-06
申请号:CN202411806328.2
申请日:2024-12-10
Applicant: 曙光信息产业股份有限公司 , 曙光信息产业(北京)有限公司
IPC: G06V10/774 , G06V10/764 , G06V20/70
Abstract: 本申请涉及一种数据标注方法、装置、计算机设备、计算机可读存储介质和计算机程序产品。所述方法包括:接收监测服务器发送的图像数据集;根据计算机视觉模型标注图像数据集中的目标对象,得到目标图像数据集;将目标图像数据集发送给监测服务器;目标图像数据集用于训练监测服务器上图像识别模型。采用本方法能够提高数据标注方法的效率。
-
公开(公告)号:CN119942155A
公开(公告)日:2025-05-06
申请号:CN202510016694.6
申请日:2025-01-06
Applicant: 长沙有色冶金设计研究院有限公司
IPC: G06V10/74 , G06V10/774 , G06V10/82 , G06V10/26 , G06V20/70
Abstract: 本申请的岩芯质量指标的测算方法、系统、设备及存储介质,主要涉及在岩芯质量指标测算时,利用训练好的语义分割模型,识别出岩芯图像中岩芯段的侧面和顶底面,进而基于相似性指标,判断两两相邻岩芯段是否满足机械断裂条件,若是,则将机械断裂的若干岩芯段合并作为并归岩芯段,利用岩芯段侧面得到其长度,随即即可获得长度满足阈值要求的、不满足机械断裂条件的岩芯段以及满足机械断裂条件的并归岩芯段,由它们的长度和通过岩芯质量指标计算式,进而获得岩芯质量指标,实现了岩芯质量指标计算的精确度。
-
公开(公告)号:CN119942112A
公开(公告)日:2025-05-06
申请号:CN202510000599.7
申请日:2025-01-02
Applicant: 电子科技大学
IPC: G06V10/26 , G06V10/82 , G06N3/0464 , G06N3/0895 , G06V20/70
Abstract: 本发明公开一种图像分割大模型、预训练方法及相关装置,应用于图像识别技术,针对现有的基于深度学习的图像分割模型对大规模标注数据的依赖性和在小样本分割任务上的性能低的问题;本发明采用一种基于图像融合的伪分割方式,实现从大量无标注图像中的分割模型预训练,是通过以下技术方案来实现的:首先通过卷积和Transformer并行模块建立图像分割网络结构DCT‑Net,然后在无标注数据集中通过双视角数据增广得到待融合的训练图像对,接着对增广后的图像利用分块离散融合系数进行融合,得到融合后的图像。在此基础上将融合后的图像作为模型输入,融合系数图作为分割目标,建立伪分割任务对分割模型进行预训练。经过预训练后的模型在下游分割任务中,利用少量标注图像进行微调。本发明能克服传统基于深度学习的图像分割模型所需的标注成本高昂、小样本训练集上分割性能差的问题,可以有效降低模型所需标注量,并且提高其收敛速度和分割性能。
-
公开(公告)号:CN119942109A
公开(公告)日:2025-05-06
申请号:CN202411978931.9
申请日:2024-12-30
Applicant: 中国电信股份有限公司技术创新中心 , 中国电信股份有限公司
Inventor: 王泽琨
Abstract: 本申请提供一种图像语义分割方法、装置、电子设备和可读介质。该方法包括:将待预测图像和待预测文本输入到包含文本编码器和图像编码器的多模态模型中进行特征提取,分别得到图像令牌和文本令牌;在文本令牌中嵌入信任令牌,信任令牌用于标识待预测文本中的已知类别标签和未知类别标签;通过信任学习器将匹配的图像令牌以及嵌入信任令牌后的文本令牌进行特征融合,得到融合特征;通过语义分割网络对融合特征进行语义分割,得到结果掩膜;通过结果掩膜对待预测图像中的各个像素分配类别标签,得到待遇测图像的图像分割结果。该方法能够提升模型的适应性与识别能力,避免因未知类别导致的遗漏或标注错误。
-
公开(公告)号:CN119942100A
公开(公告)日:2025-05-06
申请号:CN202411751530.X
申请日:2024-12-02
Applicant: 集美大学 , 厦门大学 , 厦门思总建设有限公司
IPC: G06V10/26 , G06V20/70 , G06V20/64 , G06V10/40 , G06V10/62 , G06V10/764 , G06V10/82 , G06N3/045 , G06N3/0455 , G06N3/096
Abstract: 本申请的实施例提供了一种基于跨域伪标签生成的点云分割方法、装置、介质及设备。该方法包括:获取三维点云数据及其对应的遥感图像;将与点云区域对齐的遥感图像输入至学生模型中,以使所述学生模型输出预测并计算交叉熵损失以优化学生模型;通过指数移动平均,基于所述学生模型对教师模型进行更新;采用更新后的所述教师模型对所述三维点云数据对应的点云投影图像进行预测,输出对应的伪标签;将所述伪标签扩散到所述三维点云数据中的各个点,以得到各所述点对应的点标签;根据各所述点对应的点标签,采用点云语义分割网络对所述三维点云数据进行语义分割。本申请实施例的技术方案可以降低数据集的获取成本,并保证点云语义分割网络的训练效果。
-
公开(公告)号:CN119941888A
公开(公告)日:2025-05-06
申请号:CN202411974851.6
申请日:2024-12-30
Applicant: 杭州高新区(滨江)区块链与数据安全研究院 , 浙江大学
IPC: G06T11/00 , G06T7/13 , G06V10/26 , G06V10/764 , G06V20/70
Abstract: 本申请适用于图像处理技术领域,提供了一种仿真场景的生成方法、装置、电子设备及计算机程序产品。仿真场景的生成方法包括:获取真实场景对应的目标图像;提取目标图像中每个目标物体各自的轮廓信息;根据每个目标物体各自的轮廓信息,确定每个目标物体各自的目标贴图;根据每个目标物体各自的目标贴图,生成真实场景对应的仿真场景。本申请的方法通过提取目标图像中每个目标物体各自的轮廓信息,再根据每个目标物体各自的轮廓信息生成真实场景对应的仿真场景,因此能够保证仿真场景中的目标物体的形态和结构与真实场景中的目标物体的形态和结构基本一致,提高了生成的仿真场景与真实场景的相似度。
-
公开(公告)号:CN119941525A
公开(公告)日:2025-05-06
申请号:CN202510007749.7
申请日:2025-01-03
Applicant: 中国石油大学(华东)
IPC: G06T5/50 , G06T5/60 , G06N3/0464 , G06V10/80 , G06V10/774 , G06V10/82 , G06V20/70
Abstract: 本发明提供了一种基于频率语义补偿协作的红外与可见光图像融合方法,属于红外与可见光图像融合领域,本发明包括以下步骤:步骤1:获取融合网络的数据集,将数据集分为训练集和测试集;步骤2:构建红外与可见光图像融合网络,用于特征的提取和图像的还原,所述融合网络包括:层次化语义特征提取单元、频率与语义特征交叉补偿模块、图像上采样重构模块;步骤3:对训练集中的图像预处理,进行归一化;步骤4:在损失函数的指导下对融合网络进行训练,得到训练好的融合网络模型;步骤5:利用融合网络的测试集数据对步骤4得到的训练好的网络模型进行测试,得到融合图像。本发明所述的图像融合方法有着良好的泛化能力,能够充分地利用图像当中的频率信息和语义信息,生成含有显著目标信息和丰富纹理细节的融合图像。
-
-
-
-
-
-
-
-
-