-
公开(公告)号:CN119027595A
公开(公告)日:2024-11-26
申请号:CN202411506157.1
申请日:2024-10-28
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
IPC: G06T17/00 , G06N3/0455 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种X光图像三维重建方法、系统、电子设备及存储介质,所述方法包括利用两个并行的编解码器网络,分别对二维X光图像的冠状面和矢状面进行三维重建,其中,在编码器网络中,利用局部特征增强模块分别提取冠状面X光图像和矢状面X光图像的二维特征图;利用注意力交互模块对冠状面X光图像和矢状面X光图像的二维特征图进行信息交换和融合;利用维度转换单元将所述注意力交互模块处理后的二维特征图转换成三维特征图;在解码器网络中,利用3D反卷积模块通过逐步放大三维特征图并进行三维卷积操作获取三维图像。本发明方法使用两张X光图片即可完成三维CT的重建,减少患者接受的辐射。
-
公开(公告)号:CN118298217A
公开(公告)日:2024-07-05
申请号:CN202410321777.1
申请日:2024-03-20
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
Abstract: 本发明实施例公开了一种细粒度分类模型的训练方法、装置、电子设备及存储介质,涉及细粒度图像分类技术领域,其中,所述方法包括:获取样本图像的数字成像作为训练集;根据深度学习算法构建初始细粒度分类模型;基于孪生网络的思想和所述训练集对初始细粒度分类模型中的特征提取模型进行有监督预训练,充分收敛后基于迁移学习的思想将所述特征提取模型的权重冻结;通过特征识别模型获取各个训练样本的分类结果,根据分类结果与分类标签计算损失迭代优化特征识别模型,优化完成后得到训练完成的细粒度分类模型。本发明解决了现有技术中鉴定人才极度匮乏,细粒度样本的区分能力不足,易发生混淆与误检,导致细粒度样本分类准确度和效率低的问题。
-
公开(公告)号:CN117132671B
公开(公告)日:2024-02-23
申请号:CN202311402700.9
申请日:2023-10-27
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
Abstract: 本发明提供了一种基于深度自适应隐写网络的多任务隐写方法、系统及介质,所述方法包括以下步骤:在隐藏阶段,发送方基于深度自适应隐写网络采用逐频逐深度提取机制以及自适应空间‑频率提取模块对载体和秘密图像的有效空间、频率信息进行自适应的逐步提取,融合秘密信息和载体信息的有效部分,得到载密图像,并将所述载密图像发送至接收方;在恢复阶段,所述接收方通过恢复网络从所述载密图像中将秘密图像恢复出来。本发明通过在隐藏阶段自适应逐频逐深度地将秘密信息嵌入到载体图像中,显著提升了多个隐写任务的载密图像质量及隐写隐蔽性,同时,由于重要秘密信息的有效嵌入,
-
公开(公告)号:CN117132671A
公开(公告)日:2023-11-28
申请号:CN202311402700.9
申请日:2023-10-27
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
Abstract: 本发明提供了一种基于深度自适应隐写网络的多任务隐写方法、系统及介质,所述方法包括以下步骤:在隐藏阶段,发送方基于深度自适应隐写网络采用逐频逐深度提取机制以及自适应空间‑频率提取模块对载体和秘密图像的有效空间、频率信息进行自适应的逐步提取,融合秘密信息和载体信息的有效部分,得到载密图像,并将所述载密图像发送至接收方;在恢复阶段,所述接收方通过恢复网络从所述载密图像中将秘密图像恢复出来。本发明通过在隐藏阶段自适应逐频逐深度地将秘密信息嵌入到载体图像中,显著提升了多个隐写任务的载密图像质量及隐写隐蔽性,同时,由于重要秘密信息的有效嵌入,本发明能够恢复阶段中显著提升恢复秘密图像质量及隐写有效性。
-
公开(公告)号:CN117671302A
公开(公告)日:2024-03-08
申请号:CN202410140154.4
申请日:2024-02-01
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
IPC: G06V10/74 , G06V10/75 , G06V10/44 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种图像隐写分析方法及设备,方法包括:利用空域富模型中srm滤波提取待分析原始图片的空域高频噪声信息图;利用高通滤波方法提取待分析原始图片的高频信息图;对空域高频噪声信息图和高频信息图分别进行图像切割,得到不同位置的频域信息子图和空域信息子图;利用深度学习网络对频域信息子图和空域信息子图进行特征提取;将提取的特征进行相似度计算,得到特征相似度矩阵;对特征相似度矩阵的非零元素进行求和取平均,获得特征平均相似度;通过设定决策边界,并通过特征平均相似度与方法决策边界比较得到待分析原始图片的隐写分析结果。本发明提高了图像隐写分析的准确率。
-
公开(公告)号:CN118350417A
公开(公告)日:2024-07-16
申请号:CN202410780844.6
申请日:2024-06-18
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
IPC: G06N3/0455 , G06N3/082 , G06N3/084
Abstract: 本发明公开了一种目标检测模型的优化方法、装置、电子设备及存储介质,应用于DINO模型,涉及人工智能技术领域,所述目标检测模型的优化方法包括以下步骤:S10,LST结构改进:在通过历史任务训练好的原DINO模型上新增旁支网络,以获得新DINO模型;S20,初步预热:固定原DINO模型的网络参数,并利用历史任务对旁支网络的参数进行训练;S30,持续学习增量训练:采用ER技术对新DINO模型进行持续学习训练,且训练过程中采用遗忘性优先采样策略进行历史任务样本选取;S40,推理测试。本发明的有益效果:既能缓解模型的灾难性遗忘,又能快速适应新任务。
-
公开(公告)号:CN117974483A
公开(公告)日:2024-05-03
申请号:CN202311646494.6
申请日:2023-12-04
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
Abstract: 本发明提供了一种基于知识蒸馏的图像去噪方法、系统及存储介质,包括步骤一:建立自适应蒸馏框架,通过自适应蒸馏框架,从教师网络提炼出有用的信息;步骤二:经过特征映射模块进一步精炼,最后传递给学生网络。本发明的有益效果是:本发明提出了一种自适应蒸馏框架,该框架能自动调节蒸馏点的蒸馏力度,甚至去除某些蒸馏点,形成更优的蒸馏点位置,提升学生网络的收敛速度和性能。
-
公开(公告)号:CN118350417B
公开(公告)日:2024-11-19
申请号:CN202410780844.6
申请日:2024-06-18
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
IPC: G06N3/0455 , G06N3/082 , G06N3/084
Abstract: 本发明公开了一种目标检测模型的优化方法、装置、电子设备及存储介质,应用于DINO模型,涉及人工智能技术领域,所述目标检测模型的优化方法包括以下步骤:S10,LST结构改进:在通过历史任务训练好的原DINO模型上新增旁支网络,以获得新DINO模型;S20,初步预热:固定原DINO模型的网络参数,并利用历史任务对旁支网络的参数进行训练;S30,持续学习增量训练:采用ER技术对新DINO模型进行持续学习训练,且训练过程中采用遗忘性优先采样策略进行历史任务样本选取;S40,推理测试。本发明的有益效果:既能缓解模型的灾难性遗忘,又能快速适应新任务。
-
公开(公告)号:CN118364870A
公开(公告)日:2024-07-19
申请号:CN202410796661.3
申请日:2024-06-20
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
IPC: G06N3/0455 , G06N3/08 , G06F40/226 , G06F40/284
Abstract: 本发明公开了一种大语言模型的优化方法、装置、电子设备及存储介质,涉及人工智能技术领域,所述大语言模型的优化方法具体包括以下步骤:S10,结合原LLM模型和大模型SFT数据集生成训练数据集;S20,在原LLM模型的主干网络中嵌入旁支网络,以获得新LLM模型,并在旁支网络的输入端输入掩码词元序列;S30,在训练数据集上采用损失函数对新LLM模型进行训练,训练完成后,LLM模型能够在一次推理中预测多个候选词元序列;S40,并行执行候选词元序列的生成和候选词元序列正确性的验证。本发明的有益效果:既节约了资源消耗和时间,又增强了LLM模型的解码能力,还保证了LLM模型输出结果的质量。
-
公开(公告)号:CN118364870B
公开(公告)日:2024-11-19
申请号:CN202410796661.3
申请日:2024-06-20
Applicant: 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院)
IPC: G06N3/0455 , G06N3/08 , G06F40/226 , G06F40/284
Abstract: 本发明公开了一种大语言模型的优化方法、装置、电子设备及存储介质,涉及人工智能技术领域,所述大语言模型的优化方法具体包括以下步骤:S10,结合原LLM模型和大模型SFT数据集生成训练数据集;S20,在原LLM模型的主干网络中嵌入旁支网络,以获得新LLM模型,并在旁支网络的输入端输入掩码词元序列;S30,在训练数据集上采用损失函数对新LLM模型进行训练,训练完成后,LLM模型能够在一次推理中预测多个候选词元序列;S40,并行执行候选词元序列的生成和候选词元序列正确性的验证。本发明的有益效果:既节约了资源消耗和时间,又增强了LLM模型的解码能力,还保证了LLM模型输出结果的质量。
-
-
-
-
-
-
-
-
-