Abstract:
본 발명은 얼굴 표정 인식 방법 및 이를 사용하는 영상 콘텐츠 감상용 로봇의 동작 방법에 관한 것이다. 본 발명에 따른 얼굴 표정 인식 방법은 (a) 입력되는 영상으로부터 얼굴 영역을 추출하여 상기 추출된 얼굴 영역의 포즈를 추정하는 단계와; (b) 상기 추출된 얼굴 영역의 포즈가 정면을 응시하는 것으로 추정되는 경우, 상기 추출된 얼굴 영역의 얼굴 형태 및 얼굴 텍스처(Texture)를 추출하는 단계와; (c) 상기 추출된 얼굴 형태 및 얼굴 텍스처(Texture)를 기 설정된 평균 형태로 와핑(Warpping)하여 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)를 생성하는 단계와; (d) 상기 평균 얼굴 형태 및 상기 평균 얼굴 텍스처(Texture)를 레티넥스(Retinex) 처리하는 단계와; (e) 복수의 얼굴 표정에 대해 상기 (a) 단계 내지 상기 (d) 단계를 각각 수행하고, 상기 각 얼굴 표정에 대한 상기 레티넥스(Retinex) 처리된 평균 얼굴 형태 및 상기 레티넥스(Retinex) 처리된 평균 얼굴 텍스처(Texture)에 기초하여 상기 각 얼굴 표정에 대한 제1 얼굴 파라미터를 학습하는 단계와; (f) 입력되는 영상에 대해 상기 (a) 단계 내지 상기 (d) 단계를 수행하여 생성되는 레티넥스(Retinex) 처리된 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)에 기초하여 제2 얼굴 파라미터를 생성하는 단계와; (g) 상기 제1 얼굴 파라미터 중 상기 제2 얼굴 파라미터와 가장 큰 유사도를 갖는 어느 하나로 상기 제2 얼굴 파라미터에 대한 얼굴 표정을 추정하는 단계를 포함하는 것을 특징으로 한다.
Abstract:
A method for controlling a cartoon contents display robot adjusting the cartoon contents according to taste of a user and the robot using the same are provided to enable the user to view the cartoon contents by recognizing a facial pose and a hand shape of the user from an image capturing the user, and controlling the cartoon contents according to the recognized facial pose and hand shape. A pixel corresponding to skin is discriminated from a received image(S12). It is checked whether the image in a sub window is discriminated as a facial image through an Adaboost(Adaptive boosting) algorithm when the pixels clustered in the sub window correspond to a threshold(S14). The sub window is set as a first facial image sub window when an image in the sub window is the facial image(S15). A manifold space is formed by classifying and storing a plurality of first facial image sub windows respectively having a different facial pose(S17). Pixel data of a second facial image sub window is compared with the pixel data of the first facial image sub window stored in the manifold space(S20). The facial pose of a second facial image sub window is recognized by extracting the pixel data of the second facial image sub window closet to the pixel data of the first facial image sub window(S22).
Abstract:
본 발명은 색채와 감정 간의 관계에 기초한 영상의 색 변환 방법에 관한 것이다. 본 발명에 따른 영상의 색 변환 방법은 (a) 사람이 갖는 복수의 감정과 상기 각 감정에 대응하는 색채 분포를 정의하는 복수의 색채 템플릿을 설정하는 단계와; (b) 영상의 색 변환을 수행하기 위한 색 변환 알고리즘이 설정되는 단계와; (c) 상기 색 변환 알고리즘을 이용하여 상기 각 감정에 따른 사용자의 취향이 분석되어 가중치가 산출되는 단계와; (d) 사용자의 감정에 대한 감정 정보가 입력되는 단계와; (e) 상기 산출된 가중치 및 상기 입력된 감정 정보가 상기 색 변환 알고리즘에 반영되어 영상이 색 변환되는 단계를 포함하는 것을 특징으로 한다. 이에 따라, 인간의 감정, 예를 들어 즐거움, 슬픔, 분노, 공포 등과 같은 인간의 감정과 색 간의 관계에 대한 일반적인 규칙을 수립하여 감정에 따라 색채를 변환하는 색 변환 알고리즘을 결정하고, 색 변환 알고리즘의 실행에 사용자 개개인의 취향을 반영하여 색 변환을 수행함으로써, 각 사용자에 적합한 색 변환이 가능하게 된다.
Abstract:
PURPOSE: A color conversion method of an image based on relation between the chromatics and the feeling maximizing the interest of a use is provided to implement the color conversion suitable for a user by reflecting the preference of the user to a color conversion algorithm execution. CONSTITUTION: A plurality of color templates is set up(S10). The color template defines color distribution corresponding to the feeling of person. A color converting algorithm is set up for color conversion of an image(S11). The preference of the user according to each feeling is analyzed through the color conversion algorithm. The weighted value is calculated(S12). The feeling information toward the feeling of user is inputted(S13).
Abstract:
PURPOSE: A method for recognizing the facial expression of a user and a control method of the robot for visual contents impression using the same are provided to operate the image contents according to the recognized face pose by recognizing face pose and expression of a user. CONSTITUTION: A face range is extracted from an inputted image. A pose of the extracted face range is presumed(S101). In case the pose examines the front, a face shape and a texture are extracted(S103). The face shape and the texture are generated in an average form(S104). The average face form and the texture are processed in retinex(S105). A first face parameter about each facial expression learns based on the average face form and the texture of the retinex about each facial expression(S106).