一种基于相关性分析的燃气轮机故障预测方法

    公开(公告)号:CN111598220A

    公开(公告)日:2020-08-28

    申请号:CN202010404291.6

    申请日:2020-05-13

    Abstract: 本发明公开了一种基于相关性分析的燃气轮机故障预测方法,其步骤包括:1、以流的方式逐个读入待处理的监测节点向量;2、对每个当前读入的监测节点向量,与系统已经进行读入的监测节点向量,进行相关性分析;3、对已经选择的相关监测节点进行冗余分析;4、对于新加入的监测节点进行定向,确定与其他监测节点间的因果关系,重复步骤1-4,直至读入的监测节点向量的数量超过极限值,最终获得相应的监测系统因果结构图,并用于训练故障预测模型;从而得到故障预测模型,以实现对故障进行更加准确的预测。本发明能获得更加精准的故障预测模型,从而能对故障进行更加准确的预测。

    基于最大相关最小冗余的快速封装式基因选择方法

    公开(公告)号:CN110534155A

    公开(公告)日:2019-12-03

    申请号:CN201910810358.3

    申请日:2019-08-29

    Abstract: 本发明公开了一种基于最大相关最小冗余的快速封装式基因选择方法,其步骤包括:1、利用相关性方法在基因向量组中寻找与类别标签具有最大相关度的基因,并将其加入候选基因子集;2、利用最大相关最小冗余方法在基因向量组中寻找具有最大相关冗余度的基因,并将其加入候选基因子集;3、利用十折交叉验证方法判断更新候选基因子集前后的两个候选基因子集的分类精度是否降低;4、若降低,则输出更新前的候选基因子集,否则重复步骤2。本发明能获得较高质量的基因子集,同时显著降低一般的封装方法的时间复杂度,从而使得在基因子集的获取上具有良好的时间性能,并使得获得的基因子集拥有较好的分类性能。

    多尺度目标检测方法、装置、计算机设备及存储介质

    公开(公告)号:CN110222787A

    公开(公告)日:2019-09-10

    申请号:CN201910516139.4

    申请日:2019-06-14

    Abstract: 本发明公开了一种多尺度目标检测方法、装置、计算机设备及存储介质,所述方法包括:获取初始图像,将初始图像进行几倍放大,形成图像金字塔,输入到预设的特征金字塔网络,再通过预设的特征金字塔网络对初始图像中的目标进行识别和框选定位处理,得到第一预测结果,同时,对初始图像按照预设方式进行放大处理,得到放大图像,将放大图像输入到预设的小尺度目标检测网络,通过预设的小尺度目标检测网络对放大图像进行特征提取和分类,得到第二预测结果,对第一预测结果和第二预测结果进行汇总分析,得到目标检测结果,这种采用特征金字塔网络和小尺度目标检测网络进行结合的方式,提高了多尺度目标检测和定位的准确度。

    基于球载平台的多目标动态跟踪方法

    公开(公告)号:CN104156978B

    公开(公告)日:2018-08-10

    申请号:CN201410323784.1

    申请日:2014-07-04

    Abstract: 本发明公开了一种基于球载平台的多目标动态跟踪方法,包括有手动框选目标跟踪方法、自动检测跟踪方法,所述的手动框选目标跟踪方法是手动的在球载平台录像上标定一个跟踪目标然后予以跟踪,采用压缩降维方法,通过压缩降维理论来降维前景目标和背景的特征,作为在线学习更新分类器的正样本和负样本,然后使用该训练分类器去预测下一帧图像的目标位置;自动跟踪方法是通过在高空球载相机传下来的图像上手动设定一块初始化检测区域,然后对这块指定区域实时检测运动目标,对于检测出来的运动目标,予以标注出来,然后使用上述同样的在线学习跟踪方法去跟踪。本发明在保持跟踪实时性和一定准确率前提下有效克服球载视频晃动引起的跟踪难题。

    多智能体的数据评估决策方法、装置、设备及介质

    公开(公告)号:CN116976708A

    公开(公告)日:2023-10-31

    申请号:CN202311235316.4

    申请日:2023-09-25

    Abstract: 本发明公开了一种多智能体的数据评估决策方法、装置、设备及介质,包括:基于第一经验池训练进取心模型,并根据进取心模型确定进取程度,其中,进取心模型用于衡量互信息,推动靠近优秀目标远离差劣结果;基于进取程度构建第二经验池;采用第二经验池对多智能体进行强化学习,并将强化学习结果输入到第一经验池;返回基于第一经验池训练进取心模型,基于进取心模型确定进取程度的步骤继续执行,直到达到预设的拟合条件;输出强化学习结果,作为多智能体的数据评估决策结果,实现通过借鉴情感对于决策的作用提出基于进取心的多智能体强化学习算法,通过进取心对数据优劣的衡量得出数据的价值评判,提高多智能体数据评估决策的精准程度。

    面部表情识别方法、装置、计算机设备及存储介质

    公开(公告)号:CN110263673B

    公开(公告)日:2022-10-14

    申请号:CN201910469723.9

    申请日:2019-05-31

    Abstract: 本发明公开了一种面部表情识别方法、装置、计算机设备及存储介质,所述方法包括:获取初始人脸图像,并进行人脸检测,得到目标人脸图像,再通过人脸对齐提取目标人脸图像中的局部特征点,同时,将目标人脸图像输入到面部注意力机制的卷积神经网络模型中,该网络模型包括对象网络、注意力网络,采用对象网络,提取目标人脸图像中的整体面部特征数据,采用注意力网络,提取局部特征点区域的特征数据,作为局部特征数据,将整体面部特征数据和局部特征数据进行加权识别,得到面部表情识别结果,采用对面部特征数据和局部特征数据综合识别的方式,提升了面部表情识别的准确率,同时,使用神经网络的方式进行识别,有利于提高识别效率。

    基于圆弧特征提取的机器人定位方法、装置、设备及介质

    公开(公告)号:CN110253579B

    公开(公告)日:2021-11-19

    申请号:CN201910547230.2

    申请日:2019-06-24

    Abstract: 本发明公开了一种基于圆弧特征提取的机器人定位方法、装置、设备及介质。所述方法包括:对点云数据帧进行区域分割,得到目标区块;在每个目标区块中,筛选出满足预设条件的连续相邻的扫描点,组成数据段;筛选出每个数据段中与预设初始位置距离最近的扫描点,并连接该扫描点和预设初始位置,得到目标直线;将每两条目标直线之间的交点作为目标点;根据每个目标点的坐标,使用预设的霍夫变换算法确定圆心坐标,并结合预设初始位置的坐标,计算圆弧半径;若数据段与以圆心坐标和圆弧半径组成的圆形相吻合,则提取该数据段作为圆弧特征,并使用该圆弧特征进行机器人定位。本发明的技术方案提高了圆弧特征提取的效率和机器人定位的准确性。

    基于深度图像的机器人定位与建图方法和装置

    公开(公告)号:CN110866496A

    公开(公告)日:2020-03-06

    申请号:CN201911114259.8

    申请日:2019-11-14

    Abstract: 本申请涉及一种基于深度图像的机器人定位与建图方法、装置、计算机设备及存储介质,所述方法包括:使用RGB-D相机进行周边环境探测,采集得到RGB图像和深度图像,并基于RGB图像和深度图像,确定连续的图像帧,采用稀疏直接法对连续的图像帧进行计算,得到当前帧的初始位姿,实现通过较少量的计算,确定初始位姿,提高位姿获取的速度,同时,采用特征点法对当前帧的初始位姿进行计算与优化,得到当前帧的精确位姿,确保光照发生变化或快速移动时,位姿估计的准确性,再根据当前帧的精确位姿中进行关键帧选取,得到关键帧序列,基于关键帧序列进行局部建图与优化,生成环境地图,实现高效准确地生成环境地图,提高了机器人定位与建图的效率和精确度。

    基于点线特征融合的机器人定位与建图方法和装置

    公开(公告)号:CN110866497B

    公开(公告)日:2023-04-18

    申请号:CN201911114284.6

    申请日:2019-11-14

    Abstract: 本申请涉及一种基于点线特征融合的机器人定位与建图方法、装置、计算机设备及存储介质,所述方法包括:通过使用RGB‑D相机进行周边环境探测,采集得到RGB图像和深度图像,并确定连续的图像帧,再从连续的图像帧中提取点特征,并通过自适应的线段检测方法,从连续的图像帧中提取线特征,进而采用特征匹配算法和筛选机制,对线特征进行特征匹配,得到帧间初始位姿,最后采用点线误差模型对所述帧间初始位姿进行最小化误差处理,得到帧间位姿及地图点,并基于所述帧间位姿及所述地图点,生成局部地图,实现通过点线特征的融合来提高跟踪的鲁棒性,避免低纹理和运动模糊等场景下跟踪失败的问题,有效提高机器人定位与建图的精确度。

    一种基于语义的定位与建图方法、系统及智能机器人

    公开(公告)号:CN114926536B

    公开(公告)日:2022-10-14

    申请号:CN202210845745.2

    申请日:2022-07-19

    Abstract: 本发明涉及一种基于语义的定位与建图方法、系统及智能机器人。该基于语义的定位与建图方法,包括获取当前帧图像的矢量特征网络;对矢量特征网络进行剪枝,将矢量特征网络划分为若干个矢量簇;检测每一所述矢量簇的运动状态,获取动态目标的模糊区域;结合所述当前帧图像的语义分割结果,优化模糊区域;剔除精确区域内的动态特征点,基于最小化重投影误差根据当前帧图像中静态特征点进行位姿估计;基于剔除动态特征点的当前帧图像和位姿信息,增量式更新八叉树语义地图。该方法可无需先验知识通过纯物理几何方式独立地检测视野中的动态目标并剔除,提升机器人在动态环境下的定位精度,同时能够建立语义地图。

Patent Agency Ranking