-
公开(公告)号:KR101464446B1
公开(公告)日:2014-11-24
申请号:KR1020130119231
申请日:2013-10-07
Applicant: 재단법인대구경북과학기술원
CPC classification number: G06F21/32 , G06K9/00275 , G06K9/00315 , G06K9/6268
Abstract: 본 발명은 얼굴 인식과 자세 추정을 이용한 개인 인증 방법 및 그 장치에 관한 것이다. 본 발명에 따르면, 카메라의 획득 영상으로부터 사용자의 얼굴 영역을 검출하는 단계와, 상기 얼굴 영역의 각 화소를 ECSP(Exetended Center Symmetric Pattern) 값들로 변환하여 상기 얼굴 영역을 전처리하는 단계와, 상기 전처리된 얼굴 영역으로부터 특징 벡터를 추출하는 단계와, 상기 특징 벡터를 사전에 학습된 분류기에 반영하여 상기 사용자의 1차 개인 인증을 수행하는 단계와, 패턴 인식을 위한 키패드를 화면 상에 노출하는 단계와, 상기 1차 개인 인증된 사용자에 대해 얼굴 영역을 검출하고, 시간에 따른 상기 얼굴의 자세 변화를 추정하는 단계, 및 상기 추정된 얼굴의 자세 변화에 대응되는 패턴이 기 저장된 보안 패턴과 일치하면 상기 사용자의 2차 개인 인증을 완료하는 단계를 포함하는 얼굴 인식과 자세 추정을 이용한 개인 인증 방법을 제공한다.
상기 얼굴 인식과 자세 추정을 이용한 개인 인증 방법 및 그 장치에 따르면, 사용자의 얼굴 인식을 이용한 1차 개인 인증 이후 사용자의 얼굴 자세 변화의 추정을 이용한 패턴 인식에 따른 2차 개인 인증을 수행함에 따라 개인 인증 절차에 대한 보안성을 강화시킬 수 있으며 보다 안전한 개인 인증이 가능한 이점이 있다.Abstract translation: 本发明涉及使用人脸识别和姿势估计来认证个体的方法及其装置。 根据本发明,提供了一种使用面部识别和姿势估计来认证个体的方法,包括以下步骤:从由相机获得的图像中检测用户的面部区域; 将面部区域的每个像素转换为扩展中心对称图案(ECSP)值,并且预处理面部区域; 从预处理的面部区域提取特征向量; 反映先前学习的分类器中提取的特征向量,并为用户执行第一个人认证; 在屏幕上露出用于模式识别的键盘; 从执行第一个人认证的用户检测面部区域,并根据时间的推移估计面部姿势的变化; 以及当预先存储的安全模式与对应于估计的面部姿势的变化的模式相同时,为用户完成第二个人认证。 使用面部识别和姿势估计对个体进行认证的方法及其装置可以加强个人认证过程的安全性,并且通过使用基于模式识别的姿态的变化的估计来执行基于模式识别的第二个人认证来实现更安全的个人认证 在用户的第一次个人认证之后,用户的脸部使用面部识别。
-
公开(公告)号:KR101451854B1
公开(公告)日:2014-10-16
申请号:KR1020130120487
申请日:2013-10-10
Applicant: 재단법인대구경북과학기술원
CPC classification number: G06K9/00302 , G06K9/00268 , G06K9/4614 , G06K9/4638 , G06T7/44 , G06T2207/20052
Abstract: The present invention relates to a face expression recognizing device and a method thereof. The face expression recognizing device of the present invention comprises; a face area detection unit which detects a face area from recorded image information; a feature vector extracting unit which divides the detected face area into face blocks more than predetermined size and extracts a feature vector from each of the face blocks; a storage unit which stores sample data for the face expression recognition; a face expression determining unit which measures a characteristic parameter by applying a 2D-DCT method based on the extracted feature vector and produces observation vector rows using the measured characteristic parameters. The face expression determining unit measures an observation probability value between the observation vector rows and the measured characteristic parameters and determines face expression of a model having the highest observation probability value. According to the present invention, the face expression recognizing device can recognize face expression with high accuracy using a 2D-DCT algorithm and an EHMM method of a statistical modeling technique in contrast with a traditional face recognizing approach method.
Abstract translation: 面部表情识别装置及其方法技术领域本发明涉及面部表情识别装置及其方法。 本发明的面部表情识别装置包括: 脸部区域检测单元,其从记录图像信息中检测面部区域; 特征向量提取单元,其将检测到的面部区域分割成超过预定尺寸的面块,并从每个面部块中提取特征向量; 存储单元,其存储用于面部表情识别的样本数据; 面部表情确定单元,其通过基于所提取的特征向量应用2D-DCT方法来测量特征参数,并使用所测量的特征参数产生观察向量行。 面部表情确定单元测量观察矢量行和测量的特征参数之间的观察概率值,并且确定具有最高观察概率值的模型的面部表情。 根据本发明,与传统的面部识别方法相比,脸部表情识别装置可以使用统计建模技术的2D-DCT算法和EHMM方法以高精度识别脸部表情。
-
公开(公告)号:KR101401809B1
公开(公告)日:2014-05-29
申请号:KR1020120128193
申请日:2012-11-13
Applicant: 재단법인대구경북과학기술원
Abstract: 스크린에서의 다중사용자 인터페이스 제공 장치 및 방법이 개시된다. 스크린과 이격하여 사용자 위치 범위를 설정하는 범위 설정부 및 상기 사용자 위치 범위의 적어도 일부를 시야 범위로 갖는 카메라를, 상기 스크린과 연관하여 복수 개 장착하되, 상기 사용자 위치 범위 내 임의 지점이 두 종류 이하의 시야 범위에 포함되게 상기 카메라의 장착 위치를 조정하는 스크린 제어부를 포함한다.
-
公开(公告)号:KR1020140061164A
公开(公告)日:2014-05-21
申请号:KR1020120128410
申请日:2012-11-13
Applicant: 재단법인대구경북과학기술원
CPC classification number: G06T7/50 , G06K9/00389 , G06T2210/12
Abstract: A device and a method for detecting a hand using a depth image are provided. A device for detecting a hand using a depth image includes a detection unit which receives an photographed image of a hand by a camera and detecting a hand area for the hand from the inputted image based on the distance between the hand and the camera; and a processor for estimating a two-dimensional first hand shape and a three-dimensional second hand shape from the hand area, and finally estimating a final hand shape of the hand by using the estimated first and second hand shapes.
Abstract translation: 提供了一种使用深度图像检测手的装置和方法。 用于使用深度图像检测手的装置包括:检测单元,其通过相机接收手的拍摄图像,并且基于手和相机之间的距离从所输入的图像中检测手的手区域; 以及用于从手区域估计二维第一手形状和三维秒针形状的处理器,并且最终通过使用估计的第一和第二手形状来估计手的最终手形。
-
公开(公告)号:KR1020140037464A
公开(公告)日:2014-03-27
申请号:KR1020120103599
申请日:2012-09-18
Applicant: 재단법인대구경북과학기술원
CPC classification number: G06F3/011 , G06F3/012 , G06F3/013 , G06F3/017 , G06F3/0304 , G06F3/0346 , G06F3/042 , G06T7/20
Abstract: The present invention relates to a user interface apparatus and a user interface method. The present invention provides a configuration including a detection unit for detecting at least one of a face direction and an eye direction of a user located at the front of a camera, a first area specifying unit for specifying a portion of a whole area of a screen to be manipulated by a user based on a direction information of the detection unit, a second area specifying unit for tracking the location of a hand input through the camera, estimating an area, in which the motion of the user is possible, from the whole area of a camera image, and specifying the area as a camera area, a location specifying unit for mapping the motion of the hand displayed in the screen area and the motion of the hand displayed in the camera area based on a moving distance information or a moving speed information, so that an icon is located at a target coordinate on the screen, and a recognition unit for recognizing the shape of the hand of the user input through the camera, and an executing unit for performing a command corresponding to the recognized shape of the hand in the part indicated by the icon. As described above, according to the present invention, even if the difference is made in resolution between the camera and the screen, the user can exactly move the icon to the location required by the user on the screen. [Reference numerals] (302) Face direction recognizing unit; (304) Eye direction recognizing unit; (310) Screen area specifying unit; (320) Camera area specifying unit; (330) Location specifying unit; (340) Recognition unit; (350) Executing unit; (360) Storage unit; (AA) Screen size/resolution; (BB) Camera resolution; (CC) Distance between camera and user; (DD) Hand movement distance informationi; (EE) Hand movement speed information
Abstract translation: 本发明涉及用户界面装置和用户界面方法。 本发明提供了一种配置,其包括用于检测位于相机前部的用户的脸部方向和眼睛方向中的至少一个的检测单元,用于指定屏幕的整个区域的一部分的第一区域指定单元 由用户基于检测单元的方向信息来操作;第二区域指定单元,用于跟踪通过照相机的手输入的位置,估计可能的用户的运动的区域 相机图像的区域,以及将该区域指定为相机区域,基于移动距离信息或位置指定单元,用于映射在屏幕区域中显示的手的运动和显示在相机区域中的手的运动的位置指定单元 移动速度信息,使得图标位于屏幕上的目标坐标上,以及识别单元,用于识别通过照相机输入的用户的手的形状,以及用于每个的执行单元 在由图标指示的部分中形成与所识别的手的形状相对应的命令。 如上所述,根据本发明,即使在相机和屏幕之间的分辨率上存在差异,用户可以将图标精确地移动到屏幕上用户所需的位置。 (附图标记)(302)面部方向识别单元; (304)眼睛识别单元; (310)屏幕区域指定单元; (320)相机区域指定单元; (330)位置指定单元; (340)识别单位; (350)执行单位; (360)存储单元; (AA)屏幕尺寸/分辨率; (BB)相机分辨率; (CC)相机与用户之间的距离; (DD)手动距离信息; (EE)手动速度信息
-
公开(公告)号:KR101306576B1
公开(公告)日:2013-09-26
申请号:KR1020120127561
申请日:2012-11-12
Applicant: 재단법인대구경북과학기술원
CPC classification number: G06K9/00228 , G06K9/00281 , G06K9/6274 , G06T7/11
Abstract: PURPOSE: A face recognition system robust to changes in lighting based on differential components is provided to recognize the face based on D2D-PCA considering differential components, thereby recognizing exactly the face regardless of a change of lighting. CONSTITUTION: A face recognition system divides a face image obtained from a camera into right and left images (120). The system obtains a left image characteristic matrix by using differential two-dimensional principal component analysis (D2D-PCA) considering differential components based on the left image (130). The system calculates a left image distance value showing a distance value of the left image characteristic matrix based on the left image characteristic matrix (140). The system obtains a right image characteristic matrix by using D2D-PCA considering differential components based on the right image (150). The system calculates a right image distance value showing a distance value of the right image characteristic matrix based on the right image characteristic matrix (160). The system recognizes the face based on an integrated value combining the right and left image distance values (180). [Reference numerals] (110) Obtain a face image; (120) Divide the face image into right and left images; (130) Obtain s a left image characteristic matrix by using a two-dimensional principal component analysis based on the left image considering differential components; (140) Calculate a left image distance value; (150) Obtain a right image characteristic matrix by using a two-dimensional principal component analysis based on the left image considering differential components; (160) Calculate a right image distance value; (170) Calculate an integration value; (180) Perform face recognition; (AA) Start; (BB) End
Abstract translation: 目的:提供基于差分组件对照明变化稳健的人脸识别系统,以识别基于D2D-PCA的面部差分组件,从而可以准确地识别面部,而不管照明的变化如何。 构成:脸部识别系统将从相机获得的脸部图像分成左右图像(120)。 该系统通过使用基于左图像的差分分量(130),通过使用微分二维主分量分析(D2D-PCA)来获得左图像特征矩阵。 系统基于左图像特征矩阵(140)计算表示左图像特征矩阵的距离值的左图像距离值。 系统通过使用基于正确图像的差分分量的D2D-PCA获得右图像特征矩阵(150)。 该系统基于右图像特征矩阵计算表示右图像特征矩阵的距离值的右图像距离值(160)。 系统基于组合右图像距离值和左图像距离值的积分值来识别面部(180)。 (附图标记)(110)获取脸部图像; (120)将脸部图像分为左右图像; (130)通过使用考虑到差分分量的基于左图像的二维主分量分析获得左图像特征矩阵; (140)计算左图像距离值; (150)通过使用考虑到差分分量的基于左图像的二维主分量分析来获得右图像特征矩阵; (160)计算右图像距离值; (170)计算积分值; (180)执行面部识别; (AA)开始; (BB)结束
-
公开(公告)号:KR101269107B1
公开(公告)日:2013-05-29
申请号:KR1020110115872
申请日:2011-11-08
Applicant: 재단법인대구경북과학기술원
IPC: G06T7/20
Abstract: 본발명은카메라를이용한손동작인식방법및 장치에관한것이다. 본발명에따르면, 카메라를통해촬영된손의기준점을검출하는단계와, 상기기준점이검출된손으로부터움직임이감지되면, 상기감지된움직임에대응되는손의궤적정보를저장하는단계와, 상기움직임이감지된손의현재위치와상기기준점사이의차이값을연산하여기 설정된제1 임계치와비교하는단계와, 상기차이값이상기제1 임계치이상인경우, 상기감지된움직임에대응되는손의궤적정보와기 저장된손동작별 궤적 DB를비교하는단계, 및상기궤적 DB로부터상기손의궤적정보와일치하는손동작을판별하는단계를포함하는카메라를이용한손동작인식방법및 장치를제공한다. 상기카메라를이용한손동작인식방법및 장치에따르면, 손이기준점으로부터멀어진정도를일차적으로판단한다음, 손이움직인궤적정보와기 저장된손동작별 궤적 DB를재차비교하여검증함에따라손동작의인식률을높일수 있는이점이있다.
-
公开(公告)号:KR1020130050672A
公开(公告)日:2013-05-16
申请号:KR1020110115874
申请日:2011-11-08
Applicant: 재단법인대구경북과학기술원
CPC classification number: G06F3/011 , G06F3/017 , G06F3/0416 , G06F2203/011 , G06T7/00
Abstract: PURPOSE: A virtual touch method using a 3D camera and a device thereof are provided to implement a virtual touch mode without a special touch recognition device or touch display by using the 3D camera which recognizes a touch motion. CONSTITUTION: A first area detecting unit(110) detects a screen area differentiated from surrounding areas of a screen unit from an image of the screen unit. When a shape of a touch performer is sensed on the screen area is sensed, a second area detecting unit(120) detects a part of a body of the touch performer differentiated from the screen area from an image of a 3D camera. A touch determining unit(130) compares a depth value of the screen area with a depth value of the part of the body to determine a touch to the part of the body. [Reference numerals] (110) First area detecting unit; (120) Second area detecting unit; (130) Touch determining unit; (140) Operation control unit; (150) DB unit
Abstract translation: 目的:提供使用3D相机及其装置的虚拟触摸方法,以通过使用识别触摸运动的3D相机来实现无特殊触摸识别装置或触摸显示的虚拟触摸模式。 构成:第一区域检测单元(110)从屏幕单元的图像中检测与屏幕单元的周围区域不同的屏幕区域。 当检测到在屏幕区域上感测到触摸表演者的形状时,第二区域检测单元(120)从与3D相机的图像相区别的屏幕区域检测触摸执行者的身体的一部分。 触摸确定单元(130)将屏幕区域的深度值与身体的一部分的深度值进行比较,以确定对身体的一部分的触摸。 (附图标记)(110)第一区域检测单元; (120)第二区域检测单元; (130)触摸确定单元; (140)操作控制单元; (150)DB单元
-
公开(公告)号:KR101085851B1
公开(公告)日:2011-11-22
申请号:KR1020090117740
申请日:2009-12-01
Applicant: 재단법인대구경북과학기술원
Abstract: 본 발명의 일 실시예는 미아 방지 시스템에 관한 것으로서, 이러한 미아 방지 시스템은, 제 1 식별정보가 포함된 제 1 데이터를 송신하는 보호자용 센서; 제 2 식별정보가 포함된 제 2 데이터를 송신하는 아이용 센서; 제 1 데이터를 토대로 보호자용 센서의 제 1 위치 추적 필요 정보를 파악하여 송신하고, 제 2 데이터를 토대로 아이용 센서의 제 2 위치 추적 필요 정보를 파악하여 송신하는 중계센서 그룹; 및 제 1 위치 추적 필요 정보 및 제 2 위치 추적 필요 정보를 토대로 보호자용 센서의 위치 및 아이용 센서의 위치를 추적하고, 추적 결과를 보호자용 센서로 송신하며, 추적 결과를 토대로 보호자용 센서 및 아이용 센서 간의 이격거리가 유효거리를 초과하는지를 판단하여, 판단 결과에 따라 미아 발생 상황을 파악하여 미아 발생 정보를 보호자용 센서 및 아이용 센서로 송신하는 관리서버를 포함하는 것을 특징으로 한다.
미아, 센서, 위치-
公开(公告)号:KR100990336B1
公开(公告)日:2010-10-29
申请号:KR1020080128007
申请日:2008-12-16
Applicant: 재단법인대구경북과학기술원
IPC: G01S5/12
Abstract: 본 발명은 위치 정보를 산출하기 위한 방법, 장치 및 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.
본 발명은 위치를 측정하기 위한 타겟 노드의 주변 노드로부터 위치 정보를 수신하는 노드 연동부; 상기 위치 정보에 근거하여 상기 타겟 노드와 상기 주변 노드 간의 거리 정보를 산출하는 거리 정보 산출부; 및 상기 거리 정보 중 상기 타겟 노드와 가장 근접한 세 개의 근접 노드를 추출하고, 상기 근접 노드의 위치 정보에 근거하여 상기 타겟 노드의 위치를 예측한 위치 예측 데이터를 생성하는 위치 예측부를 포함하는 것을 특징으로 하는 위치 정보를 산출하기 위한 장치를 제공한다.
본 발명에 의하면, 위치 산출의 복잡도를 낮추면서 타겟 노드의 위치 산출의 정확성을 높일 수 있는 일종의 위치 인식 알고리즘을 제공하며, 타겟 노드의 위치 정보 산출에 대한 정확성을 향상 시킬 수 있는 효과가 있다.
위치, 산출, 예측, 거리 정보
-
-
-
-
-
-
-
-
-