基于特征迁移的两阶段三维模型草图检索方法

    公开(公告)号:CN115795069A

    公开(公告)日:2023-03-14

    申请号:CN202211504486.3

    申请日:2022-11-29

    Applicant: 同济大学

    Inventor: 梁爽 蔡奕阳

    Abstract: 本发明提供了一种基于特征迁移的两阶段三维模型草图检索方法方法,具有这样的特征,包括以下步骤:步骤S1,对现有的手绘草图数据标注类别标签作为第一训练数据集,对现有的三维模型数据和其二维视图数据标注类标签别作为第二训练数据集;步骤S2,根据第一训练数据训练手绘草图特征提取网络得到各个类别标签的类别中心向量;步骤S3,根据第二训练数据集训练三维模型特征提取网络;步骤S4,根据三维模型特征提取网络提取三维模型的三维模型特征,根据手绘草图特征提取网络提取待查询草图的草图特征;步骤S5,计算草图特征和各个三维模型特征的相似度,根据相似度输出三维模型。总之,本方法能够提高根据手绘草图检索三维模型的准确率。

    一种基于关节关系的人体姿态估计方法

    公开(公告)号:CN113435293A

    公开(公告)日:2021-09-24

    申请号:CN202110694968.9

    申请日:2021-06-23

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于关节关系的人体姿态估计方法,包括以下步骤:S1:构建关节关系模块,包含基于通道的特征关系模块和邻接关节空间关系模块两个子模块;S2:构建基于关节关系的人体姿态估计模型;S3:利用标注的人体姿态数据训练基于关节关系的人体姿态估计模型;S4:利用训练完成的添加关节关系模块的人体姿态估计模型进行基于单张图像的人体姿态估计任务,获取预测的人体姿态。与现有技术相比,本发明有效克服图像中自由度较高的四肢关节如腕关节、踝关节及被遮挡的不可见关节位置难以检测的问题,人体姿态估计准确性高。

    一种基于姿态质量评估的自适应人体姿态优化方法

    公开(公告)号:CN112329571A

    公开(公告)日:2021-02-05

    申请号:CN202011161979.2

    申请日:2020-10-27

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于姿态质量评估的自适应人体姿态优化方法,包括以下步骤:S1:获取人体姿态优化训练数据和已有姿态质量评估训练数据;S2:利用姿态质量评估训练数据训练人体姿态质量评估网络,得到用于衡量已有人体姿态质量评估模型;S3:利用人体姿态优化训练数据训练人体姿态优化网络,得到人体姿态优化模型;S4:获取已有人体姿态,根据人体姿态质量评估模型的评估结果,利用人体姿态优化模型对质量不达标的已有人体姿态通过迭代进行姿态优化,直至优化后的人体姿态质量达标,输出该优化的人体姿态,与现有技术相比,本发明具有有效克服所获取的人体姿态质量差异性问题等优点。

    一种基于草图轮廓特征的三维模型最佳视角选取方法

    公开(公告)号:CN104751463B

    公开(公告)日:2017-10-13

    申请号:CN201510145279.7

    申请日:2015-03-31

    Applicant: 同济大学

    Inventor: 梁爽 赵龙 贾金原

    Abstract: 本发明公开了一种基于草图轮廓特征的三维模型最佳视角选取方法,包括以下具体步骤:使用基于轮廓线条上下文环境的特征匹配算法,将所有给定的手绘草图映射到对应三维模型的视角上;基于三维模型视角被手绘草图的映射频率,选取模型潜在最佳视角的正负训练样本;使用“词袋”模型为每个三维模型构建特征向量,并基于正负样本利用“支持向量机”学习出一个三维模型潜在最佳视角的分类器;将三维模型视角的多样性引入到排序算法中,为每个三维模型选取出前几个给定个数的最佳视角。采用本发明可产生更符合人类视觉感受的选取结果和更广泛的适应性。

    基于因果推理的无偏场景图生成系统及方法

    公开(公告)号:CN118015117A

    公开(公告)日:2024-05-10

    申请号:CN202410124532.X

    申请日:2024-01-29

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于因果推理的无偏场景图生成系统及方法,属于场景图生成领域,用于解决现有场景图偏差问题。本发明的技术方案通过引入因果推理,将作为关键混杂因素的长尾分布先验知识利用因果干预进行去除。在此基础上,出于对长尾分布中的难分类样本的考虑,引入不确定性估计的方法,在提升模型准确率的同时保证了难分类样本的效果。

    一种采用稀疏体素融合的3D目标检测方法、装置、设备及存储介质

    公开(公告)号:CN117115526A

    公开(公告)日:2023-11-24

    申请号:CN202311043086.1

    申请日:2023-08-18

    Applicant: 同济大学

    Abstract: 本发明涉及一种采用稀疏体素融合的3D目标检测方法、装置、设备及存储介质,其中,该方法包括以下步骤:将采集的点云同时进行立方体素化和柱状体素化,得到前景立方体素和柱状体素;计算柱状体素质心和前景立方体素质心,并提取体素质心作为体素特征;将前景立方体素的特征与柱状体素特征融合,得到第一阶段增强的立方体素特征;选择物体中心的立方体素作为中心体素,根据所述的中心体素得到中心体素特征,将中心体素特征与第一阶段增强的立方体素特征聚合,得到第二阶段增强的立方体素;将第二阶段增强的立方体素送入3D目标检测器中实现目标检测。与现有技术相比,本发明具有起到了有效检测远距离、小目标的检测效果等优点。

    基于多粒度解码器的文本-图像检测方法

    公开(公告)号:CN116912663A

    公开(公告)日:2023-10-20

    申请号:CN202310898188.5

    申请日:2023-07-20

    Applicant: 同济大学

    Abstract: 本案涉及基于多粒度解码器的文本‑图像检测方法,属于图像目标检测领域,用于解决目前检测相关的文本‑图像任务模型无法灵活使用语言描述图像中物体或须假设被描述物体有且仅有一个的问题。本案根据任务类型配置不同粒度的解码器构成多粒度解码器,对以文字描述和/或包围盒形式对图像中目标对象进行描述的文本图像任务,获取任务中图像和文本的融合特征序列;当把融合特征序列作为多粒度解码器的输入时,多粒度解码器输出文本‑图像任务检测结果。本案将各种与检测定位相关的文本‑图像任务统一为基于文本描述物体检测任务,有效统一了各种任务形式;多粒度解码器具有可扩展性,训练好的多粒度解码器能够实现对不同文本图像任务的推理。

    一种基于多不相连模式学习的行人轨迹预测方法

    公开(公告)号:CN116823889A

    公开(公告)日:2023-09-29

    申请号:CN202310789300.1

    申请日:2023-06-30

    Applicant: 同济大学

    Abstract: 本发明涉及一种基于多不相连模式学习的行人轨迹预测方法,基于社交不相连模式生成对抗网络模型生成预测轨迹,使用编码器提取视觉特征与观测行人轨迹特征,基于注意力模块获取物理场景和社会注意力特征;采用社会注意力建立基于注意力标注的结构化图序列,并对结构化图序列通过时空编码器编码提取物理背景和行人移动的瞬态变化;将物理场景注意力、社会注意力以及时空编码器输出特征拼接输入多生成器架构,输出预测行人的未来轨迹;利用生成器选择器对多生成器进行先验学习,在先验学习的过程中采用谱轨迹聚类模块更新生成器数量上限。本发明相较现有技术能够捕捉时空信息的瞬态变化、减少模型冗余,并能灵活适应于多个预测场景。

    基于重组样本学习的人-物交互动作识别方法

    公开(公告)号:CN116469170A

    公开(公告)日:2023-07-21

    申请号:CN202310441871.6

    申请日:2023-04-23

    Applicant: 同济大学

    Abstract: 本发明提供了一种基于重组样本学习的人‑物交互动作识别方法,具有这样的特征,包括以下步骤:步骤S1,将待识别图像进行特征提取和编码,得到全局特征向量和位置编码向量;步骤S2,将全局特征向量、位置编码向量和查询向量组输入人‑物对解码器,得到人‑物对特征向量组;步骤S3,将全局特征向量、位置编码向量和人‑物对特征向量组输入交互动作解码器,得到交互动作特征向量组;步骤S4,将人‑物对特征向量组和交互动作特征向量组输入前馈神经网络,得到人‑物对预测和交互动作预测;步骤S5,根据人‑物对预测、交互动作预测和Ni类人‑物交互,得到识别结果。总之,本方法能够提高人‑物交互动作识别的精度。

Patent Agency Ranking