얼굴 표정 인식 방법 및 이를 사용하는 영상 콘텐츠 감상용 로봇의 동작 방법
    1.
    发明授权
    얼굴 표정 인식 방법 및 이를 사용하는 영상 콘텐츠 감상용 로봇의 동작 방법 有权
    用于识别脸部表情的方法和用于使用其来获取图像内容的机器人的控制方法

    公开(公告)号:KR100977528B1

    公开(公告)日:2010-08-23

    申请号:KR1020080061307

    申请日:2008-06-27

    Inventor: 강행봉

    Abstract: 본 발명은 얼굴 표정 인식 방법 및 이를 사용하는 영상 콘텐츠 감상용 로봇의 동작 방법에 관한 것이다. 본 발명에 따른 얼굴 표정 인식 방법은 (a) 입력되는 영상으로부터 얼굴 영역을 추출하여 상기 추출된 얼굴 영역의 포즈를 추정하는 단계와; (b) 상기 추출된 얼굴 영역의 포즈가 정면을 응시하는 것으로 추정되는 경우, 상기 추출된 얼굴 영역의 얼굴 형태 및 얼굴 텍스처(Texture)를 추출하는 단계와; (c) 상기 추출된 얼굴 형태 및 얼굴 텍스처(Texture)를 기 설정된 평균 형태로 와핑(Warpping)하여 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)를 생성하는 단계와; (d) 상기 평균 얼굴 형태 및 상기 평균 얼굴 텍스처(Texture)를 레티넥스(Retinex) 처리하는 단계와; (e) 복수의 얼굴 표정에 대해 상기 (a) 단계 내지 상기 (d) 단계를 각각 수행하고, 상기 각 얼굴 표정에 대한 상기 레티넥스(Retinex) 처리된 평균 얼굴 형태 및 상기 레티넥스(Retinex) 처리된 평균 얼굴 텍스처(Texture)에 기초하여 상기 각 얼굴 표정에 대한 제1 얼굴 파라미터를 학습하는 단계와; (f) 입력되는 영상에 대해 상기 (a) 단계 내지 상기 (d) 단계를 수행하여 생성되는 레티넥스(Retinex) 처리된 평균 얼굴 형태 및 평균 얼굴 텍스처(Texture)에 기초하여 제2 얼굴 파라미터를 생성하는 단계와; (g) 상기 제1 얼굴 파라미터 중 상기 제2 얼굴 파라미터와 가장 큰 유사도를 갖는 어느 하나로 상기 제2 얼굴 파라미터에 대한 얼굴 표정을 추정하는 단계를 포함하는 것을 특징으로 한다.

    만화컨텐츠 감상용 로봇의 컨트롤 방법 및 이를 이용한만화컨텐츠 감상용 로봇
    2.
    发明公开
    만화컨텐츠 감상용 로봇의 컨트롤 방법 및 이를 이용한만화컨텐츠 감상용 로봇 无效
    用于安装COMIC内容和机器人的机器人的控制使用相同的方法来收集COM COM内容

    公开(公告)号:KR1020090011814A

    公开(公告)日:2009-02-02

    申请号:KR1020070075776

    申请日:2007-07-27

    Inventor: 강행봉

    Abstract: A method for controlling a cartoon contents display robot adjusting the cartoon contents according to taste of a user and the robot using the same are provided to enable the user to view the cartoon contents by recognizing a facial pose and a hand shape of the user from an image capturing the user, and controlling the cartoon contents according to the recognized facial pose and hand shape. A pixel corresponding to skin is discriminated from a received image(S12). It is checked whether the image in a sub window is discriminated as a facial image through an Adaboost(Adaptive boosting) algorithm when the pixels clustered in the sub window correspond to a threshold(S14). The sub window is set as a first facial image sub window when an image in the sub window is the facial image(S15). A manifold space is formed by classifying and storing a plurality of first facial image sub windows respectively having a different facial pose(S17). Pixel data of a second facial image sub window is compared with the pixel data of the first facial image sub window stored in the manifold space(S20). The facial pose of a second facial image sub window is recognized by extracting the pixel data of the second facial image sub window closet to the pixel data of the first facial image sub window(S22).

    Abstract translation: 提供了一种根据用户的趣味和使用该卡通内容的机器人来控制漫画内容显示机器人的方法,用于通过从用户的面部姿态和手形识别来观看卡通内容, 拍摄用户的图像,以及根据所识别的面部姿势和手形来控制卡通内容。 从接收到的图像辨别与皮肤相对应的像素(S12)。 当子窗口中聚集的像素对应于阈值时,检查子窗口中的图像是否通过Adaboost(自适应增强)算法被区分为面部图像(S14)。 当子窗口中的图像是面部图像时,将子窗口设置为第一面部图像子窗口(S15)。 通过对分别具有不同面部姿势的多个第一面部图像子窗口进行分类和存储来形成歧管空间(S17)。 将第二面部图像子窗口的像素数据与存储在歧管空间中的第一面部图像子窗口的像素数据进行比较(S20)。 通过将第二面部图像子窗口壁橱的像素数据提取到第一面部图像子窗口的像素数据来识别第二面部图像子窗口的面部姿态(S22)。

    색채와 감정 간의 관계에 기초한 영상의 색 변환 방법
    3.
    发明授权
    색채와 감정 간의 관계에 기초한 영상의 색 변환 방법 有权
    基于颜色和情感之间的关系转换图像颜色的方法

    公开(公告)号:KR101024954B1

    公开(公告)日:2011-03-25

    申请号:KR1020090058235

    申请日:2009-06-29

    Inventor: 강행봉

    Abstract: 본 발명은 색채와 감정 간의 관계에 기초한 영상의 색 변환 방법에 관한 것이다. 본 발명에 따른 영상의 색 변환 방법은 (a) 사람이 갖는 복수의 감정과 상기 각 감정에 대응하는 색채 분포를 정의하는 복수의 색채 템플릿을 설정하는 단계와; (b) 영상의 색 변환을 수행하기 위한 색 변환 알고리즘이 설정되는 단계와; (c) 상기 색 변환 알고리즘을 이용하여 상기 각 감정에 따른 사용자의 취향이 분석되어 가중치가 산출되는 단계와; (d) 사용자의 감정에 대한 감정 정보가 입력되는 단계와; (e) 상기 산출된 가중치 및 상기 입력된 감정 정보가 상기 색 변환 알고리즘에 반영되어 영상이 색 변환되는 단계를 포함하는 것을 특징으로 한다. 이에 따라, 인간의 감정, 예를 들어 즐거움, 슬픔, 분노, 공포 등과 같은 인간의 감정과 색 간의 관계에 대한 일반적인 규칙을 수립하여 감정에 따라 색채를 변환하는 색 변환 알고리즘을 결정하고, 색 변환 알고리즘의 실행에 사용자 개개인의 취향을 반영하여 색 변환을 수행함으로써, 각 사용자에 적합한 색 변환이 가능하게 된다.

    색채와 감정 간의 관계에 기초한 영상의 색 변환 방법
    4.
    发明公开
    색채와 감정 간의 관계에 기초한 영상의 색 변환 방법 有权
    基于颜色和情感之间的关系转换图像颜色的方法

    公开(公告)号:KR1020110000910A

    公开(公告)日:2011-01-06

    申请号:KR1020090058235

    申请日:2009-06-29

    Inventor: 강행봉

    Abstract: PURPOSE: A color conversion method of an image based on relation between the chromatics and the feeling maximizing the interest of a use is provided to implement the color conversion suitable for a user by reflecting the preference of the user to a color conversion algorithm execution. CONSTITUTION: A plurality of color templates is set up(S10). The color template defines color distribution corresponding to the feeling of person. A color converting algorithm is set up for color conversion of an image(S11). The preference of the user according to each feeling is analyzed through the color conversion algorithm. The weighted value is calculated(S12). The feeling information toward the feeling of user is inputted(S13).

    Abstract translation: 目的:提供基于色彩与使用感兴趣的感觉之间的关系的图像的颜色转换方法,以通过将用户的偏好反映到颜色转换算法执行来实现适合于用户的颜色转换。 构成:设置多个颜色模板(S10)。 颜色模板根据人的感觉定义颜色分布。 为图像的颜色转换设置颜色转换算法(S11)。 通过颜色转换算法分析用户根据每种感觉的偏好。 计算加权值(S12)。 输入针对用户感觉的感觉信息(S13)。

    얼굴 표정 인식 방법 및 이를 사용하는 영상 콘텐츠 감상용 로봇의 동작 방법
    5.
    发明公开
    얼굴 표정 인식 방법 및 이를 사용하는 영상 콘텐츠 감상용 로봇의 동작 방법 有权
    用于识别脸部表情的方法和用于使用其来获取图像内容的机器人的控制方法

    公开(公告)号:KR1020100001409A

    公开(公告)日:2010-01-06

    申请号:KR1020080061307

    申请日:2008-06-27

    Inventor: 강행봉

    CPC classification number: G06K9/00221 G06K9/00302 G06T3/0093 G06T7/40

    Abstract: PURPOSE: A method for recognizing the facial expression of a user and a control method of the robot for visual contents impression using the same are provided to operate the image contents according to the recognized face pose by recognizing face pose and expression of a user. CONSTITUTION: A face range is extracted from an inputted image. A pose of the extracted face range is presumed(S101). In case the pose examines the front, a face shape and a texture are extracted(S103). The face shape and the texture are generated in an average form(S104). The average face form and the texture are processed in retinex(S105). A first face parameter about each facial expression learns based on the average face form and the texture of the retinex about each facial expression(S106).

    Abstract translation: 目的:提供一种用于识别用户的面部表情的方法和使用其的用于视觉内容印象的机器人的控制方法,以通过识别用户的脸部姿势和表情来根据识别的脸部姿势来操作图像内容。 构成:从输入图像中提取面部范围。 推定提取的脸部范围的姿势(S101)。 如果姿势检查前方,则提取脸部形状和纹理(S103)。 以平均形式生成面部形状和纹理(S104)。 在retinex中处理平均脸部形状和纹理(S105)。 关于每个面部表情的第一面部参数基于每个面部表情的平均脸部形式和视网膜的纹理来学习(S106)。

Patent Agency Ranking