-
-
公开(公告)号:KR101878567B1
公开(公告)日:2018-07-13
申请号:KR1020160151705
申请日:2016-11-15
Applicant: 가톨릭대학교 산학협력단
IPC: A61B5/0456 , A61B5/00 , B60K28/02 , B60K28/10
Abstract: 본발명은심전도기반의운전능력평가방법에관한것으로, (a) 운전자의심전도가측정되는단계와; (b) 차량의가속도가측정되는단계와; (c) 상기심전도의 R-피크간격이산출되는단계와; (d) 상기가속도가상기 R-피크간격에기초하여샘플링되어샘플링가속도가산출되는단계와; (e) 상기 R-피크간격중 기설정된긴장지표를만족하는횟수가기 설정된기준시간단위로카운트되어 R-피크벡터데이터가산출되는단계와; (f) 상기샘플링가속도중 기설정된강한운전지표를만족하는횟수가상기기준시간단위로카운트되어가속도벡터데이터가산출되는단계와; (g) 상기 R-피크벡터데이터와상기가속도벡터데이터가유클리디안거리(Euclidean distance) 기법에적용되어최소거리가산출되는단계와; (h) 상기 R-피크벡터데이터와상기가속도벡터데이터가피어슨상관관계(Pearson's correlation) 기법에적용되어최대상관관계값이산출되는단계와; (i) 상기최소거리및 상기최대상관관계값에기초하여안전운전능력이산출되는단계를포함하는것을특징으로한다. 이에따라, 불안정한차량시스템에강인하고운전자의감정상태를정확하게나타낼수 있는심전도와차량의가속도를혼합하여보다강인하고정확한운전능력을평가할수 있다.
-
13.
公开(公告)号:KR101333836B1
公开(公告)日:2013-11-29
申请号:KR1020120020657
申请日:2012-02-28
Applicant: 가톨릭대학교 산학협력단
IPC: G06T17/20
Abstract: 본 발명은 AAM 및 추정된 깊이 정보를 이용하는 3차원 얼굴 포즈 및 표정 변화 추정 방법에 관한 것으로서, 보다 구체적으로는 (1) 정면 및 양 측면 얼굴을 나타내는 입력 영상에 특징점(land-mark)을 표기하여 삼각형 메쉬(mesh)를 형성하는 단계, (2) 상기 특징점을 표기한 입력 영상 중 정면 얼굴에 대하여 AAM(Active Appearance Model)에 의한 학습과정에서 정의되는 AAM 모델 파라미터로부터 2차원의 AAM 얼굴모델을 생성하는 단계, (3) 상기 생성된 AAM 얼굴모델에 2차원 변환 파라미터를 적용하고 상기 입력 영상에 피팅(fitting)하는 단계, (4) 상기 입력 영상의 정면 및 양 측면 얼굴로부터 3차원의 얼굴 깊이 정보를 추정하는 단계, (5) 상기 AAM 얼굴모델에 상기 추정된 얼굴 깊이 정보를 z축으로 추가하여 3차원의 얼굴모델을 생성하는 단계, (6) 상기 생성된 3차원의 얼굴모델에 3차원 변환 파라미터를 적용하고 상기 입력 영상에 피팅하는 단계, 및 (7) 3차원으로 변화하는 얼굴 포즈 및 표정에 따라 입력되는 영상 프레임마다 상기 단계 (1) 내지 단계 (6)을 반복 수행하여 상기 2차원 및 3차원 변환 파라미터를 갱신하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
본 발명에서 제안하고 있는 AAM 및 추정된 깊이 정보를 이용하는 3차원 얼굴 포즈 및 표정 변화 추정 방법에 따르면, 정면 얼굴의 입력 영상에 대해 AAM을 이용하여 학습하고, 정면과 양 측면얼굴의 입력 영상으로부터 추정된 얼굴의 깊이 정보를 AAM과 결합함으로써 사전 학습에 의존적이지 않고 폭넓은 얼굴 포즈에 대해 얼굴 피팅을 수행할 수 있다.
또한, 본 발명에 따르면, 얼굴 포즈 변화로 인해 발생하는 자기 가림(self-occlusion)에 대해 메쉬의 방향성을 이용한 가중치 처리를 수행함으로써 학습된 정면 얼굴과 다른 얼굴 포즈에 대해서도 효과적인 얼굴 피팅을 수행할 수 있다.-
公开(公告)号:KR1020130103920A
公开(公告)日:2013-09-25
申请号:KR1020120024939
申请日:2012-03-12
Applicant: 가톨릭대학교 산학협력단
Inventor: 강행봉
CPC classification number: H04N17/004 , G06T3/0093 , G06T7/97 , G06T2200/04 , G06T2207/10012 , H04N13/106 , H04N13/30 , H04N2013/0074
Abstract: PURPOSE: A measuring method for measuring the recognition distortion about a three-dimensional image is provided to measure the shape distortion recognition degree of a viewer more accurately by varying the shape distortion degree of a distortion sample image depending on the shape distortion degree in which current viewer feels when recognizing the three-dimensional image. CONSTITUTION: A viewer selects any one of a plurality of three-dimensional parameter. A measurement device displays a test stereo-scopic image corresponding to the selected three-dimensional parameter on a screen (S31). The measurement device displays a plurality of sample image corresponding to the test stereo-scopic image on the screen (S32). The viewer selects at least any one of a plurality of sample image (S33). Based on the selected sample image, the measurement device measures the there-dimensional recognition scale about the selected three-dimensional parameter (S34-S40). [Reference numerals] (AA) Start; (BB) End; (S31) Display a test stereo-scopic image on a first monitor; (S32) Display a sample image on a second monitor; (S33) Select the sample image; (S37) Make interim inspection; (S39) Change the image; (S40) Calculate the level of stereo-scopic recognition performance
Abstract translation: 目的:提供一种用于测量关于三维图像的识别失真的测量方法,以通过根据其中的电流的形状失真度改变失真样本图像的形状失真度来更准确地测量观察者的形状失真识别度 当识别三维图像时,观众感觉到感觉。 构成:观众选择多个三维参数中的任何一个。 测量装置在屏幕上显示对应于所选择的三维参数的测试立体图像(S31)。 测量装置在屏幕上显示与测试立体图像对应的多个样本图像(S32)。 观众选择多个样本图像中的至少一个(S33)。 基于所选择的样本图像,测量装置测量关于所选择的三维参数的尺寸识别尺度(S34-S40)。 (附图标记)(AA)开始; (BB)结束; (S31)在第一台显示器上显示测试立体显示图像; (S32)在第二台显示器上显示样品图像; (S33)选择样品图像; (S37)进行临时检查; (S39)更改图像; (S40)计算立体视觉识别性能的水平
-
15.
公开(公告)号:KR1020130098824A
公开(公告)日:2013-09-05
申请号:KR1020120020657
申请日:2012-02-28
Applicant: 가톨릭대학교 산학협력단
IPC: G06T17/20
CPC classification number: G06T17/205 , G06K9/00228 , G06K9/6247 , G06T2207/20081
Abstract: PURPOSE: A three-dimensional facial pose and expression estimating method using an active appearance model (AAM) and estimated depth information is provided to learn an input image of a front face by using the AAM and combine the AAM with the depth information about a face estimated from input face images, thereby performing face fitting for various facial poses without depending on prior learning. CONSTITUTION: By marking a landmark on an input image, a triangular mesh is formed (S100). A two-dimensional active appearance model (AAM) face model is generated from an AAM parameter defined in a learning process by an AAM in respect to a front face among the input images in which the landmarks are marked (S200). A two-dimensional transform parameter is applied to the generated AAM face model (S300). Estimated three-dimensional face depth information is added to the AAM face model (S400,S500). A three-dimensional transform parameter is applied to the generated three-dimensional face model (S600). The two-dimensional and three-dimensional transform parameters are updated for every input image frames (S700). [Reference numerals] (S100) Triangular mesh is formed by marking landmarks on an input image showing the front and two sides of a face; (S200) Two-dimensional active appearance model (AAM) face model is generated from an AAM parameter defined in a learning process by an AAM in respect to a front face among the input images in which the landmarks are marked; (S300) Two-dimensional transform parameters are applied to the generated AAM face model and is fitted to the input image; (S400) Face depth information is estimated based on the front and two sides of the face; (S500) Three-dimensional face model is created by applying the estimated face depth information as a Z axis to the AAM face model; (S600) Three-dimension transform parameters are applied to the three-dimensional face model and the three-dimensional face model is fitted to the input image; (S700) Two- and three-dimension transform parameters are updated at every image frame of changing poses and looks of the face in a three-dimensional way by repetitively performing the stage 100 and the stage 600; (S800) Directions of the mesh values for those overlapped areas is identified and the weight of the mesh values of the overlapped areas with their directions contradicting each other is set as 0 by replacing the face texture within the triangle with an average texture
Abstract translation: 目的:提供使用活动外观模型(AAM)和估计深度信息的三维面部姿势和表情估计方法,以通过使用AAM来学习前脸的输入图像,并将AAM与关于脸部的深度信息相结合 从输入面部图像估计,从而对于各种面部姿态进行面部装配,而不依赖于先前的学习。 构成:通过在输入图像上标记地标,形成三角形网格(S100)。 根据在AAM中通过AAM在学习过程中定义的相对于其中标记了标记的输入图像中的正面的AAM参数来生成二维活动外观模型(AAM)面部模型(S200)。 将二维变换参数应用于生成的AAM面部模型(S300)。 将估计的三维面深度信息添加到AAM面部模型(S400,S500)。 将三维变换参数应用于生成的三维面部模型(S600)。 针对每个输入图像帧更新二维和三维变换参数(S700)。 (附图标记)(S100)通过在表示面部的前侧和两侧的输入图像上标记界标来形成三角形网格; (S200)根据由AAM在学习过程中定义的AAM参数生成二维活动外观模型(AAM)面部模型,该AAM参数相对于其中标记了地标的输入图像中的正面; (S300)将二维变换参数应用于生成的AAM面部模型并将其拟合到输入图像上; (S400)脸部深度信息是根据脸部的正面和两面进行估计的; (S500)通过将估计的面部深度信息作为Z轴应用于AAM面部模型来创建三维面部模型; (S600)三维变换参数应用于三维人脸模型,三维脸部模型适用于输入图像; (S700)通过重复执行阶段100和阶段600,以三维方式改变脸部姿势和外观的每个图像帧处更新两维和三维变换参数; (S800)识别这些重叠区域的网格值的方向,并且将具有彼此矛盾的方向相互重叠的重叠区域的网格值的权重设置为0,通过用平均纹理替换三角形内的面部纹理
-
16.
公开(公告)号:KR100977528B1
公开(公告)日:2010-08-23
申请号:KR1020080061307
申请日:2008-06-27
Applicant: 가톨릭대학교 산학협력단 , (주)키즈엔터테인먼트 , 재단법인 경기콘텐츠진흥원
Inventor: 강행봉
Abstract: 본 발명은 얼굴 표정 인식 방법 및 이를 사용하는 영상 콘텐츠 감상용 로봇의 동작 방법에 관한 것이다. 본 발명에 따른 얼굴 표정 인식 방법은 (a) 입력되는 영상으로부터 얼굴 영역을 추출하여 상기 추출된 얼굴 영역의 포즈를 추정하는 단계와; (b) 상기 추출된 얼굴 영역의 포즈가 정면을 응시하는 것으로 추정되는 경우, 상기 추출된 얼굴 영역의 얼굴 형태 및 얼굴 텍스처(Texture)를 추출하는 단계와; (c) 상기 추출된 얼굴 형태 및 얼굴 텍스처(Texture)를 기 설정된 평균 형태로 와핑(Warpping)하여 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)를 생성하는 단계와; (d) 상기 평균 얼굴 형태 및 상기 평균 얼굴 텍스처(Texture)를 레티넥스(Retinex) 처리하는 단계와; (e) 복수의 얼굴 표정에 대해 상기 (a) 단계 내지 상기 (d) 단계를 각각 수행하고, 상기 각 얼굴 표정에 대한 상기 레티넥스(Retinex) 처리된 평균 얼굴 형태 및 상기 레티넥스(Retinex) 처리된 평균 얼굴 텍스처(Texture)에 기초하여 상기 각 얼굴 표정에 대한 제1 얼굴 파라미터를 학습하는 단계와; (f) 입력되는 영상에 대해 상기 (a) 단계 내지 상기 (d) 단계를 수행하여 생성되는 레티넥스(Retinex) 처리된 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)에 기초하여 제2 얼굴 파라미터를 생성하는 단계와; (g) 상기 제1 얼굴 파라미터 중 상기 제2 얼굴 파라미터와 가장 큰 유사도를 갖는 어느 하나로 상기 제2 얼굴 파라미터에 대한 얼굴 표정을 추정하는 단계를 포함하는 것을 특징으로 한다.
-
公开(公告)号:KR1020150103461A
公开(公告)日:2015-09-11
申请号:KR1020140024944
申请日:2014-03-03
Applicant: 가톨릭대학교 산학협력단
Inventor: 강행봉
IPC: G06F19/00 , A61B5/0476
Abstract: 본 발명은 게임 몰입도 측정 방법에 관한 것으로 (a)게임을 진행하는 동안 게이머의 뇌파를 측정하는 단계와; (b)게임 진행에 따라 측정된 뇌파 구간에서 미리 정해진 자극 시점에 대응하는 유효구간을 추출하는 단계와; (c) 상기 유효구간에서 특징점을 추출하는 단계와; (d) 상기 특징점을 기 마련된 표본화 데이터와 비교하여 게임 몰입도를 판단하는 단계를 포함하는 것을 특징으로 한다. 이에 따라 게임 이용중의 뇌파를 측정하여 과몰입 척도를 신뢰도 있게 측정할 수 있다.
Abstract translation: 本发明涉及一种用于测量游戏浸入度的方法,包括以下步骤:(a)在游戏期间测量玩家的脑电波; (b)提取对应于游戏期间测量的脑波部分中的预定刺激点的有效部分; (c)提取有效部分的特征点; 和(d)将特征点与准备的采样数据进行比较,并确定游戏的浸入度。 因此,通过在使用游戏时测量脑波,可以可靠地测量过浸标准。
-
公开(公告)号:KR101471761B1
公开(公告)日:2014-12-10
申请号:KR1020130061547
申请日:2013-05-30
Applicant: 가톨릭대학교 산학협력단
Inventor: 강행봉
CPC classification number: A61F9/00 , A61H5/005 , A61H2201/5043 , A61N2005/0659 , A63B23/03
Abstract: 본 발명은 3D 콘텐츠를 이용한 안구 능력 강화 장치에 관한 것으로, 디스플레이부에 표시되는 3D 콘텐츠를 추적 주시하여 안구 운동을 실시하기 위한 안구 능력 강화 장치에 있어서, 상기 3D 콘텐츠에 대응하는 3D 콘텐츠 데이터가 저장된 저장부; 상기 디스플레이부에 3D 콘텐츠가 표시되도록 상기 3D 콘텐츠 데이터를 재생하는 3D 재생 엔진; 상기 3D 콘텐츠 데이터가 상기 디스플레이부에 상기 3D 콘텐츠로 표시되도록 상기 3D 재생 엔진을 제어하는 운영제어부를 포함함에 따라 3D 콘텐츠가 갖는 입체 영상에 따라 안구 조절 기능을 유도하여 안구의 능력을 강화시킬 수 있다.
Abstract translation: 本发明涉及一种使用三维(3D)内容来增强动眼容量的装置,其通过跟踪显示在显示单元上的3D内容来进行眼动。 使用3D内容加强动眼容量的装置包括:存储单元,其中存储与3D内容对应的3D内容数据; 3D引擎,其播放所述3D内容数据,以便在所述显示单元上显示所述3D内容; 以及操作控制单元,其控制3D引擎以使3D内容数据在显示单元上显示为3D内容。 因此,本发明可以通过根据3D内容的3D图像诱导眼球调制功能来增强眼动机的容量。
-
公开(公告)号:KR101436730B1
公开(公告)日:2014-09-02
申请号:KR1020130031950
申请日:2013-03-26
Applicant: 가톨릭대학교 산학협력단
IPC: G06T15/00
CPC classification number: G06K9/621 , G06K9/00228 , G06T7/40
Abstract: The present invention provides a method for 3D face fitting of an unlearned face using an active appearance model. The method comprises the steps of: (a) inputting an image; (b) extracting a face region including an internal region and an external region adjacent to the internal region by warping the input image to an average image; (c) applying a single scale retinex (SSR) to the face region, and extracting face texture from the face region by mapping the application result to the face region within a range from a predetermined maximum result value to a predetermined minimum result value; (d) extracting a texture error by applying the extracted face texture to an active appearance model; (e) extracting a face shape from the extracted face texture; (f) extracting a shape error by applying the extracted face shape to the active appearance model; and (g) giving a predetermined weight to the texture error and the shape error, aggregating the weighted errors, and fitting a face image in the input image to a model face by applying the aggregate result to the active appearance model. Therefore, the method can minimize a generalized error by considering the texture and shape of a face.
Abstract translation: 本发明提供一种使用活动外观模型对未磨损面进行3D面部拟合的方法。 该方法包括以下步骤:(a)输入图像; (b)通过将输入图像翘曲成平均图像来提取包括与内部区域相邻的内部区域和外部区域的面部区域; (c)向所述面部区域应用单个尺度的视网膜(SSR),以及通过在从预定的最大结果值到预定的最小结果值的范围内将所述应用结果映射到所述面部区域,从所述面部区域提取面部纹理; (d)通过将所提取的面部纹理应用于活动外观模型来提取纹理错误; (e)从提取的面部纹理提取脸部形状; (f)通过将提取的面部形状应用于活动外观模型来提取形状误差; 和(g)通过将聚合结果应用于活动外观模型,给出纹理误差和形状误差的预定权重,聚集加权误差,并将输入图像中的面部图像拟合到模型面。 因此,该方法可以通过考虑面部的纹理和形状来最小化广义误差。
-
公开(公告)号:KR101326313B1
公开(公告)日:2013-11-11
申请号:KR1020120024733
申请日:2012-03-09
Applicant: 가톨릭대학교 산학협력단
Abstract: 본 발명은 컨텍스트 정보를 이용한 다중 문장으로부터의 감정 분류 방법에 관한 것으로서, 보다 구체적으로는 (1) 텍스트를 구성하는 다중 문장 각각에 대하여 컨텍스트 정보를 추출하는 단계, (2) 추출된 컨텍스트 정보를 이용하여 다중 문장으로부터 복수 개의 주요 문장을 추출하는 단계, (3) 추출된 주요 문장 각각에 대하여 감정 특징을 추출하는 단계, 및 (4) 추출된 감정 특징을 이용하여 감정 분류기를 통해 각각의 주요 문장의 감정을 분류하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
본 발명에서 제안하고 있는 컨텍스트 정보를 이용한 다중 문장으로부터의 감정 분류 방법에 따르면, 컨텍스트 정보를 이용하여 텍스트를 구성하는 다중 문장으로부터 주요 문장을 추출하고, 추출된 주요 문장에 대하여 감정을 분류하고, 분류된 감정을 결합함으로써 온라인 상에서 수집할 수 있는 다중 문장으로부터 감정을 정확하게 분류하여, 마케팅 전략에 활용할 수 있다.
-
-
-
-
-
-
-
-
-