-
公开(公告)号:CN107358219A
公开(公告)日:2017-11-17
申请号:CN201710606275.3
申请日:2017-07-24
Applicant: 艾普柯微电子(上海)有限公司
IPC: G06K9/00
CPC classification number: G06K9/00275 , G06K9/00201 , G06K9/00281
Abstract: 本申请提供一种人脸识别方法及装置。本申请中,所述人脸识别方法,包括:确定待识别人脸图像中待识别人脸的面积;将待识别人脸的面积与参考人脸的面积进行匹配;如果待识别人脸与参考人脸的面积匹配成功,则基于待识别人脸图像与参考人脸图像进行人脸识别;如果待识别人脸与参考人脸的面积匹配失败,则判定人脸识别失败。本申请还提供一种人脸识别装置。本申请的技术方案,可以提高人脸识别的速度。
-
公开(公告)号:CN107273799A
公开(公告)日:2017-10-20
申请号:CN201710332020.2
申请日:2017-05-11
Applicant: 上海斐讯数据通信技术有限公司
Inventor: 赵波
CPC classification number: G06K9/00201 , G06K9/6269 , G06T7/73
Abstract: 本发明公开了一种室内定位方法,包括以下步骤:S10、根据在监视区域内采集到的影像图片数据,识别出所述影像图片数据中影像图片上是否有定位对象;S20、当所述影像图片上有定位对象时,对所述定位对象进行视觉跟踪,获取所述定位对象的运动参考信息;S30、在所述定位对象的跟踪过程中,计算出所述定位对象在所述影像图片上图像坐标系中的图像像素坐标信息;S40、将所述图像像素坐标信息转换为室内坐标信息和/或者世界坐标信息。本发明当有人体对象进入监视区域时,对人体对象进行视觉跟踪,在视觉跟踪过程中对人体对象进行实时定位。此外,利用影像图片进行室内定位,提高了定位精度。
-
公开(公告)号:CN105474265B
公开(公告)日:2017-09-29
申请号:CN201480046274.2
申请日:2014-08-20
CPC classification number: G06K9/00805 , B60W30/06 , B60W30/08 , G06K9/00201 , G06K9/00335 , G06K9/6215 , G06K9/66 , G06T7/269 , G06T7/292 , G06T7/593 , G06T7/70 , G06T2200/04 , G06T2207/30196 , G06T2207/30252 , G08G1/166
Abstract: 对象物推断装置基于图像获取单元从不同的位置拍摄到的多个图像,来推断该图像中的对象物的位置以及速度。上述对象物推断装置具备:推移信息获取单元,在上述多个图像中的成为基准的基准图像中,从在时间上位于前后的帧中获取对应的像素的位置在时间上的推移信息;视差信息获取单元,以上述基准图像为基准从上述多个图像中获取对应的各像素的视差信息;推断值获取单元,基于上述推移信息获取单元获取的推移信息以及上述视差信息获取单元获取的视差信息,使用滤波来推断上述对象物在三维空间上的位置以及速度的推断值;判定单元,判定上述推移信息获取单元获取的推移信息以及上述视差信息获取单元获取的视差信息分别是否是异常值;以及修正单元,基于上述判定单元的判定结果,对上述推断值获取单元获取的上述推断值进行修正。上述修正单元在上述判定单元判定为上述推移信息获取单元获取的上述推移信息是异常值的情况下、和在上述判定单元判定为上述视差信息获取单元获取的上述视差信息是异常值的情况下,利用不同的方法对上述推断值获取单元获取的推断值进行修正。
-
公开(公告)号:CN103729643B
公开(公告)日:2017-09-12
申请号:CN201310418597.7
申请日:2013-09-13
Applicant: MV科技软件有限责任公司
CPC classification number: G06K9/00201 , G06K9/00214 , G06K9/6211
Abstract: 本发明提供了一种用于利用3D场景数据和场景强度数据识别3D对象的实体和确定所述实体的3D姿势的方法,所述方法包括以下步骤:(a)提供3D对象数据并获得对象强度数据;(b)提供3D场景数据和场景强度数据;(c)从所述强度数据中提取场景特征点;(d)从所述3D场景数据中选择至少一个参考点;(e)在假设所述参考点为所述3D对象的一部分时,针对每个所选的参考点,通过最大化所提取的场景特征点的数量而为所述3D对象计算候选姿势,在给定的候选姿势下,所述所提取的场景特征点与所述3D对象一致;(f)从所述候选姿势中计算一组过滤姿势。
-
公开(公告)号:CN107133548A
公开(公告)日:2017-09-05
申请号:CN201610108058.7
申请日:2016-02-27
Applicant: 林项武
Inventor: 林项武
CPC classification number: G06K9/00201 , G06K9/00496 , G06T17/00 , G06T19/20
Abstract: 本发明涉及部分或整体人体轮廓数据的获取装置和方法及其应用,其要点在于,包括一种与身体紧密贴合的移动被定位点、测量定位装置、控制电路以及数据处理与存储装置,所述移动被定位点包括测距波的发射单元,所述测量定位装置包括3个以上固定位置的测距波接收单元,移动被定位点在若干选定位置停留,停留期间,发射单元发射测距波,每个接收单元分别接收,通过测距波的发射和接收实现测距,并将测距结果处理以获得人体轮廓,本发明克服了虚拟试衣人体轮廓只能以照片方式获取的技术偏见,解决了虚拟试衣过程中人体轮廓无法准确获取的难题,结合现有的织物仿真技术,真正的实现虚拟试衣,而且本发明的技术方案具有成本低的特点便于推广普及。
-
公开(公告)号:CN104488264B
公开(公告)日:2017-09-01
申请号:CN201380039625.2
申请日:2013-05-03
Applicant: 三星电子株式会社
IPC: H04N13/00
CPC classification number: G06K9/00201 , G06T7/285
Abstract: 提供一种用于处理多视点图像的方法和装置。所述方法包括:提取在第一视角的图像和第二视角的图像之间的差异信息;以及使用提取的差异信息来估计第一视角或第二视角的两个连续图像之间的运动。所述装置可以包括:处理器,其被配置为提取多视点图像中的第一视角的图像和第二视角的图像之间的差异信息,并且还被配置为使用提取的差异信息来估计第一视角或第二视角的两个连续图像之间的运动。
-
公开(公告)号:CN104769643B
公开(公告)日:2017-08-11
申请号:CN201380057461.6
申请日:2013-10-16
Applicant: 高通股份有限公司
Inventor: 玛荷许·瑞玛屈安卓恩 , 丹尼尔·瓦格纳 , 穆拉利·拉马斯瓦米·查里
IPC: G06T7/246
CPC classification number: G06K9/00711 , G06K9/00201 , G06K9/00214 , G06T7/248 , G06T17/20 , G06T2207/10016
Abstract: 本文中描述用于解算视频流中所观测的场景中的对象的表面法线的系统及方法。所述系统及方法可包含:对所述视频流进行取样以产生关键帧的集合;产生所述关键帧中的每一者中的地图点的集合的假设表面法线;通过从所述假设表面法线中的每一者计算的扭曲矩阵使第一关键帧中的对应地图点的贴片扭曲到第二关键帧的视点;计分所述两个关键帧中的每一假设表面法线之间的扭曲误差;及舍弃在所述第一与第二关键帧之间具有高扭曲误差的假设表面法线。
-
公开(公告)号:CN104590258B
公开(公告)日:2017-08-11
申请号:CN201410584771.X
申请日:2014-10-27
Applicant: 株式会社斯巴鲁
Inventor: 真壁俊介
IPC: B60W30/095 , B60W40/04
CPC classification number: B60R1/002 , B60R2300/107 , B60R2300/802 , B60R2300/8093 , B60W30/00 , G06K9/00201 , G06K9/00805 , G06K9/6201 , H04N7/181 , H04N13/204
Abstract: 本发明提供一种可判断有无向挡风玻璃的映像的车辆控制系统。执行距离计算处理和代表距离计算处理;距离计算处理通过模式匹配来检测通过立体拍摄而得到的一对拍摄图像间的对应点,将对应点间的坐标的偏差作为视差而求出,基于该视差计算至对应点为止的距离;代表距离计算处理将通过距离计算处理计算的每个对应点的距离表示在图像上作为距离图像,沿该距离图像中的纵方向将所述距离图像分割为区分的多个短条区域,按每个短条区域将频度为预定值以上的距离作为代表距离而求出。进一步地,执行计算在图像的下端部中的左右方向的中央部设定的监视区域内的代表距离的数量并判断该计算值与阈值的大小关系的判断处理,来判断有无映像。
-
公开(公告)号:CN106951089A
公开(公告)日:2017-07-14
申请号:CN201710191885.1
申请日:2017-03-28
Applicant: 深圳市石代科技有限公司
Inventor: 肖志勇
CPC classification number: G06F3/017 , G06K9/00201 , G06K9/00355 , G06K9/4604 , G06N3/04
Abstract: 本发明提供了一种手势交互方法及系统,涉及图像处理的技术领域,其中,一种手势交互方法,包括以下步骤:实时采集手势的三维图像;对三维图像进行预处理得到预处理后的三维图像;对预处理后的三维图像进行边缘提取和二值化生成边缘矩阵和二值矩阵;对边缘矩阵进行目标封闭区域填充,并将目标封闭区域填充后的边缘矩阵与二值矩阵进行与计算,生成修正二值矩阵;修正二值矩阵经深度卷积神经网络处理输出交互向量;交互类状态机根据输出交互向量进行状态更新;判断更新后的状态有无设定的改变,若无则直接结束交互;若有则触发交互动作,并结束交互。解决了现有技术的手势交互方法均存在实时性不够理想的问题,达到了提高手势交互实时性的技术效果。
-
公开(公告)号:CN104272731B
公开(公告)日:2017-04-26
申请号:CN201380024447.6
申请日:2013-05-08
Applicant: 三星电子株式会社
IPC: H04N13/02
CPC classification number: G06K9/00201 , G01B11/02 , G01B11/22 , G06T7/55 , G06T2207/10028
Abstract: 描述了一种用于处理三维(3D)信息的设备和方法。所述3D信息处理设备可使用传感器设备(比如,深度相机)来测量对象的第一深度信息,可估计对象的前景深度、背景的背景深度和对象的透明度,可基于估计的前景深度、背景深度和透明度来估计对象的第二深度信息,并可通过测量的第一深度信息与估计的第二深度信息之间的比较来确定前景深度、背景深度和透明度。
-
-
-
-
-
-
-
-
-