-
公开(公告)号:CN110321902A
公开(公告)日:2019-10-11
申请号:CN201910384564.2
申请日:2019-05-09
Applicant: 哈尔滨工业大学
Abstract: 一种基于SOCP的室内自动视觉指纹采集方法,本发明涉及室内自动视觉指纹采集方法。本发明的目的是为了解决传统手工采集视觉指纹方法算法耗时、耗力,基于粒子滤波的自动指纹采集方法生成的离线数据库精度不高的问题。一:估计步频;二:根据高斯模型估计行进步长集合;三:计算每帧图像的位置信息;四:提取图像的SURF特征;五:计算相邻两帧采样图像的匹配SURF特征;六:计算两帧采样图像的相对旋转和位置信息;七:将三得到的每帧的位置信息与六得到的两帧采样图像的相对旋转和位置信息融合,建立SOCP模型,使用内点法,求解全局最优值,即得到视觉指纹的位置信息。本发明属于室内定位和数据融合技术领域。
-
公开(公告)号:CN107609565A
公开(公告)日:2018-01-19
申请号:CN201710861213.7
申请日:2017-09-21
Applicant: 哈尔滨工业大学
Abstract: 一种基于图像全局特征主成分线性回归的室内视觉定位方法,本发明涉及室内视觉定位方法。本发明为了解决传统算法在初始阶段匹配精度较差、耗时不恒定以及对离线数据库要求较高的问题。本发明包括:一:使用图像全局特征算法对视频数据库图像进行特征信息提取;二:对特征信息使用主成分分析算法,提取数据库图像特征信息的主成分;三:对数据库图像特征信息的主成分使用线性回归算法,将视频帧对应的位置信息与提取的特征信息映射,生成定位模型;四:使用GIST算法对用户定位图像进行特征信息提取;五:将步骤四提取的特征信息输入步骤三生成的定位模型中,得到用户位置与待精度匹配的数据库视频帧。本发明用于室内定位和图像处理技术领域。
-
公开(公告)号:CN107609565B
公开(公告)日:2020-08-11
申请号:CN201710861213.7
申请日:2017-09-21
Applicant: 哈尔滨工业大学
IPC: G06K9/46 , G06T5/10 , G06F16/783
Abstract: 一种基于图像全局特征主成分线性回归的室内视觉定位方法,本发明涉及室内视觉定位方法。本发明为了解决传统算法在初始阶段匹配精度较差、耗时不恒定以及对离线数据库要求较高的问题。本发明包括:一:使用图像全局特征算法对视频数据库图像进行特征信息提取;二:对特征信息使用主成分分析算法,提取数据库图像特征信息的主成分;三:对数据库图像特征信息的主成分使用线性回归算法,将视频帧对应的位置信息与提取的特征信息映射,生成定位模型;四:使用GIST算法对用户定位图像进行特征信息提取;五:将步骤四提取的特征信息输入步骤三生成的定位模型中,得到用户位置与待精度匹配的数据库视频帧。本发明用于室内定位和图像处理技术领域。
-
公开(公告)号:CN110321902B
公开(公告)日:2021-07-13
申请号:CN201910384564.2
申请日:2019-05-09
Applicant: 哈尔滨工业大学
Abstract: 一种基于SOCP的室内自动视觉指纹采集方法,本发明涉及室内自动视觉指纹采集方法。本发明的目的是为了解决传统手工采集视觉指纹方法算法耗时、耗力,基于粒子滤波的自动指纹采集方法生成的离线数据库精度不高的问题。一:估计步频;二:根据高斯模型估计行进步长集合;三:计算每帧图像的位置信息;四:提取图像的SURF特征;五:计算相邻两帧采样图像的匹配SURF特征;六:计算两帧采样图像的相对旋转和位置信息;七:将三得到的每帧的位置信息与六得到的两帧采样图像的相对旋转和位置信息融合,建立SOCP模型,使用内点法,求解全局最优值,即得到视觉指纹的位置信息。本发明属于室内定位和数据融合技术领域。
-
-
-