-
公开(公告)号:CN115808170B
公开(公告)日:2023-06-06
申请号:CN202310088382.7
申请日:2023-02-09
Applicant: 宝略科技(浙江)有限公司
Abstract: 本发明提供了一种融合蓝牙与视频分析的室内实时定位方法,包括:步骤S1,配置多个蓝牙信标设备并建立虚拟的点云空间,以及于点云空间内设置多个虚拟摄像头和三维坐标系;步骤S2,获取移动设备的用户数据及当前时刻的第一蓝牙定位坐标;步骤S3,根据用户数据和第一蓝牙定位坐标获得下一时刻的第二蓝牙定位坐标;步骤S4,获取当前时刻之前一段时间内虚拟摄像头拍摄的虚拟监控录像及摄像头参数并提取得到连续的视频定位坐标,根据各视频定位坐标和摄像头参数得到视频定位轨迹;步骤S5,获取移动设备的多个第二蓝牙定位坐标以得到实时融合定位轨迹。有益效果是本发明能够实现低成本、高准确度、高效的室内实时定位功能。
-
公开(公告)号:CN115808170A
公开(公告)日:2023-03-17
申请号:CN202310088382.7
申请日:2023-02-09
Applicant: 宝略科技(浙江)有限公司
Abstract: 本发明提供了一种融合蓝牙与视频分析的室内实时定位方法,包括:步骤S1,配置多个蓝牙信标设备并建立虚拟的点云空间,以及于点云空间内设置多个虚拟摄像头和三维坐标系;步骤S2,获取移动设备的用户数据及当前时刻的第一蓝牙定位坐标;步骤S3,根据用户数据和第一蓝牙定位坐标获得下一时刻的第二蓝牙定位坐标;步骤S4,获取当前时刻之前一段时间内虚拟摄像头拍摄的虚拟监控录像及摄像头参数并提取得到连续的视频定位坐标,根据各视频定位坐标和摄像头参数得到视频定位轨迹;步骤S5,获取移动设备的多个第二蓝牙定位坐标以得到实时融合定位轨迹。有益效果是本发明能够实现低成本、高准确度、高效的室内实时定位功能。
-
公开(公告)号:CN114417489B
公开(公告)日:2022-07-19
申请号:CN202210321035.X
申请日:2022-03-30
Applicant: 宝略科技(浙江)有限公司
IPC: G06F30/13 , G06K9/62 , G06N3/08 , G06T5/50 , G06T7/155 , G06T17/10 , G06V10/774 , G06V10/44 , G06V10/26 , G06V10/82
Abstract: 本发明涉及一种基于实景三维模型的建筑基底轮廓精细化提取方法,基于实景三维模型进行建筑基底轮廓提取,首先通过深度学习算法提取植被图斑来对建筑图斑进行精化,有效地区分高度接近的植被和建筑,生成初始建筑矢量面,然后基于初始建筑矢量面与实景三维模型生成侧面影像图,并通过侧面影像图生成第一侧面影像图,利用深度学习算法对第一侧面影像图进行分类,从而能够有效剔除建筑侧面的附属物,避免造成干扰;然后,从第二侧面影像图提取窗户,得到楼层信息,从而能够有效地剔除建筑屋檐、违章搭建等突出结构,实现屋檐自动化矫正,进而能够提取精确的建筑基底轮廓。
-
公开(公告)号:CN114417489A
公开(公告)日:2022-04-29
申请号:CN202210321035.X
申请日:2022-03-30
Applicant: 宝略科技(浙江)有限公司
IPC: G06F30/13 , G06K9/62 , G06N3/08 , G06T5/50 , G06T7/155 , G06T17/10 , G06V10/774 , G06V10/44 , G06V10/26 , G06V10/82
Abstract: 本发明涉及一种基于实景三维模型的建筑基底轮廓精细化提取方法,基于实景三维模型进行建筑基底轮廓提取,首先通过深度学习算法提取植被图斑来对建筑图斑进行精化,有效地区分高度接近的植被和建筑,生成初始建筑矢量面,然后基于初始建筑矢量面与实景三维模型生成侧面影像图,并通过侧面影像图生成第一侧面影像图,利用深度学习算法对第一侧面影像图进行分类,从而能够有效剔除建筑侧面的附属物,避免造成干扰;然后,从第二侧面影像图提取窗户,得到楼层信息,从而能够有效地剔除建筑屋檐、违章搭建等突出结构,实现屋檐自动化矫正,进而能够提取精确的建筑基底轮廓。
-
公开(公告)号:CN119068864B
公开(公告)日:2025-04-04
申请号:CN202411562003.4
申请日:2024-11-05
Applicant: 宝略科技(浙江)有限公司
Abstract: 本发明涉及一种语言识别和大语言模型融合的智能交互系统和方法,在智能交互系统中,通过设置存储装置可提供已存储的存储向量数据库;通过设置指令功能模组可根据输入语音获得相应的声纹特征、理解指令和动作指令,且写入历史指令知识库,从而更新向量数据库的内容。由于指令功能模组在获取动作指令时,先通过大语言模型的纠错部对文本信息进行纠错,可以提高准确率;然后进行语义解析以获得理解指令,确保可以理解多个意图;之后根据声纹特征、理解指令与地名地址数据库、历史指令知识库和语音指令数据库的匹配结果生成用于操控欲控对象的动作指令,匹配率能够提升。
-
公开(公告)号:CN119068864A
公开(公告)日:2024-12-03
申请号:CN202411562003.4
申请日:2024-11-05
Applicant: 宝略科技(浙江)有限公司
Abstract: 本发明涉及一种语言识别和大语言模型融合的智能交互系统和方法,在智能交互系统中,通过设置存储装置可提供已存储的存储向量数据库;通过设置指令功能模组可根据输入语音获得相应的声纹特征、理解指令和动作指令,且写入历史指令知识库,从而更新向量数据库的内容。由于指令功能模组在获取动作指令时,先通过大语言模型的纠错部对文本信息进行纠错,可以提高准确率;然后进行语义解析以获得理解指令,确保可以理解多个意图;之后根据声纹特征、理解指令与地名地址数据库、历史指令知识库和语音指令数据库的匹配结果生成用于操控欲控对象的动作指令,匹配率能够提升。
-
-
-
-
-