개인별 의상 추천 장치 및 방법
    111.
    发明公开
    개인별 의상 추천 장치 및 방법 无效
    用于推荐个性化服装的装置和方法

    公开(公告)号:KR1020130049376A

    公开(公告)日:2013-05-14

    申请号:KR1020110114368

    申请日:2011-11-04

    CPC classification number: G06Q50/10

    Abstract: PURPOSE: A personal dress recommending device and a method thereof are provided to reduce a probability to recommend awkward dress by recommending dress for today based on past dress information of a user. CONSTITUTION: A human sensor(130) senses humans. A camera unit(120) photographs a user. When the human sensor senses a human, a control unit(200) recognizes the user based on data photographed by controlling the camera unit and searches for a database about the user. A coordination recommending unit(212) provides dress recommendation information for today based on preference information and searched dress information. [Reference numerals] (120) Camera; (130) Human sensor; (140) Display device; (200) Control unit; (202) Input unit; (204) User recognizing unit; (206) Top and bottom extracting and recognizing unit; (208) Existing dress data output unit; (210) User-specific dress and styling DB; (212) Styling recommendation unit; (214) Transceiving unit

    Abstract translation: 目的:提供个人礼服推荐装置及其方法,以通过基于用户的过去服装信息推荐今天的衣服来减少推荐尴尬衣服的概率。 构成:人类传感器(130)感测人类。 相机单元(120)拍摄用户。 当人体感测器感测到人时,控制单元(200)基于通过控制摄像机单元拍摄的数据来识别用户,并搜索关于用户的数据库。 协调推荐单元(212)基于偏好信息和搜索衣服信息提供今天的礼服推荐信息。 (附图标记)(120)相机; (130)人体传感器; (140)显示设备; (200)控制单元; (202)输入单元; (204)用户识别单元; (206)顶部和底部提取识别单元; (208)现有连衣裙数据输出单元; (210)用户特定的衣服和造型DB; (212)造型推荐单元; (214)收发单位

    물체 추적 방법 및 그 장치
    112.
    发明公开
    물체 추적 방법 및 그 장치 无效
    跟踪对象和设备的方法

    公开(公告)号:KR1020120060458A

    公开(公告)日:2012-06-12

    申请号:KR1020100121979

    申请日:2010-12-02

    CPC classification number: G06T7/277 G06K9/6202 G06T7/90 G06T17/00

    Abstract: PURPOSE: An object tracing method and an apparatus thereof are provided to trace an object through a code book of an object and to stably trace the object in various environments. CONSTITUTION: A modeling unit updates a pixel within a tracing target object area to a codeword. The modeling unit removes a pixel of low frequency from the codeword. A probability map generating unit generates a probability map through the codeword from which the pixel is removed. A tracing unit(105) traces the tracing target object through the generated probability map.

    Abstract translation: 目的:提供了一种对象跟踪方法及其装置,用于通过对象的代码簿跟踪对象,并在各种环境中稳定地跟踪对象。 构成:建模单元将跟踪目标对象区域内的像素更新为码字。 建模单元从码字中移除低频像素。 概率图生成单元通过去除像素的码字生成概率图。 跟踪单元(105)通过生成的概率图跟踪跟踪目标对象。

    위장 얼굴 판별 장치 및 그 방법
    113.
    发明公开
    위장 얼굴 판별 장치 및 그 방법 有权
    用于辨别面部疾病的方法和装置

    公开(公告)号:KR1020110051029A

    公开(公告)日:2011-05-17

    申请号:KR1020090107673

    申请日:2009-11-09

    CPC classification number: G06K9/00906 G06K9/00281 G06K9/44

    Abstract: PURPOSE: A disguised face discriminating apparatus and method thereof which uses a linear discriminating technique are provided to permit to use a system only for a user whose face is opened by a determining normal face and a disguised face. CONSTITUTION: A first disguise processor(110) receives a face image including left side/right side face images. A second disguise processor(130) receives the face image including left side/right side face images and to performs second disguise process according to a linear technique. A final linear determining unit(140) receives the result value of the first and the second disguise processor. The final linear return value is outputted according to the linear technique. A comparator(150) compares a face image with a final linear return value.

    Abstract translation: 目的:提供使用线性鉴别技术的伪装的面部识别装置及其方法,以允许仅通过确定正常脸部和伪装脸部的脸部打开的用户使用系统。 构成:第一伪装处理器(110)接收包括左侧/右侧脸部图像的面部图像。 第二伪装处理器(130)接收包括左侧/右侧脸部图像的面部图像,并根据线性技术执行第二伪装处理。 最终线性确定单元(140)接收第一和第二伪装处理器的结果值。 根据线性技术输出最终线性返回值。 比较器(150)将脸部图像与最终线性返回值进行比较。

    시각 기반 사용자 연령대 구분 및 추정 방법
    114.
    发明公开
    시각 기반 사용자 연령대 구분 및 추정 방법 无效
    基于视觉的年龄分类和估计方法

    公开(公告)号:KR1020110029805A

    公开(公告)日:2011-03-23

    申请号:KR1020090087632

    申请日:2009-09-16

    Abstract: PURPOSE: A vision-based age classification and estimation method is provided to supply a customized service to a user based on an estimated age. CONSTITUTION: A face is detected from an input image(S110), and eyes are detected from the detected face(S120). Based on the positions of eyes, the input image is adjusted(S130). A feature vector is extracted from the adjusted input image(S140), and an age is classified by using the feature vector having a reduced dimension(S160).

    Abstract translation: 目的:提供基于视觉的年龄分类和估计方法,以根据估计年龄向用户提供定制服务。 构成:从输入图像检测到脸部(S110),从检测到的脸部检测到眼睛(S120)。 基于眼睛的位置,调整输入图像(S130)。 从调整后的输入图像中提取特征向量(S140),并且通过使用尺寸减小的特征向量对年龄进行分类(S160)。

    음성 및 영상에 기반한 성별-연령 판별방법 및 그 장치
    115.
    发明公开
    음성 및 영상에 기반한 성별-연령 판별방법 및 그 장치 有权
    基于语音和视频分类性别的方法和装置

    公开(公告)号:KR1020100073845A

    公开(公告)日:2010-07-01

    申请号:KR1020080132626

    申请日:2008-12-23

    Abstract: PURPOSE: A method and an apparatus for classification a sex-gender based on a voice and a video image are provided to perform rapid recognition identification by excluding the duplication of calculation. CONSTITUTION: Based on a feature value extracted from collected voice information, a voice processor(100) judges the sex gender and an age from the voice information. On the basis of a feature value extracted from the collected image information, a video processor(200) judges the sex gender and an age from a video information. A final judgment unit(300) determines the sex gender and the age of a certain person by combining the information on the sex gender and the age judged by the voice and video processors.

    Abstract translation: 目的:提供一种基于语音和视频图像分类性别的方法和装置,以通过排除重复计算来执行快速识别识别。 规定:语音处理器(100)基于从收集的语音信息中提取的特征值,从语音信息中判断性别和年龄。 视频处理器(200)根据从所收集的图像信息提取的特征值,根据视频信息判断性别和年龄。 最终判决单位(300)通过结合性别和语音和视频处理器判断的年龄的信息来确定某人的性别和年龄。

    하이브리드 특징벡터 처리 방법 및 이를 이용한 화자 인식 방법과 장치
    116.
    发明公开
    하이브리드 특징벡터 처리 방법 및 이를 이용한 화자 인식 방법과 장치 失效
    混合特征矢量和声音识别方法的处理方法及其使用方法

    公开(公告)号:KR1020100070097A

    公开(公告)日:2010-06-25

    申请号:KR1020080128695

    申请日:2008-12-17

    Abstract: PURPOSE: A method for processing a hybrid feature vector, a method and an apparatus for recognizing a speaker using the same are provided to perform a speaker recognition service regardless of noises by combining a multi-streaming method and a sub-band recombination method. CONSTITUTION: A first feature vector generation unit generates a first feature vector based on an input voice. A second feature vector generation unit time-filters the first feature vector to generate a second feature vector. The first and the second feature vector processing units(150a, 150b) calculate similarities of sub-bands of the first and the second feature vectors. A hybrid unit(107) merges and outputs the similarity.

    Abstract translation: 目的:提供一种用于处理混合特征向量的方法,用于识别使用该混合特征向量的扬声器的方法和装置,以通过组合多流传输方法和子带复合方法来执行讲话者识别服务而不管噪声如何。 构成:第一特征矢量生成单元基于输入声音生成第一特征向量。 第二特征向量生成单元对第一特征向量进行时间滤波以生成第二特征向量。 第一和第二特征向量处理单元(150a,150b)计算第一和第二特征向量的子带的相似度。 混合单元(107)合并并输出相似度。

    음원 추적이 가능한 지능형 로봇 및 방법
    117.
    发明授权
    음원 추적이 가능한 지능형 로봇 및 방법 有权
    用于通过频域特性定位声源的智能机器人及其方法

    公开(公告)号:KR100943224B1

    公开(公告)日:2010-02-18

    申请号:KR1020070104131

    申请日:2007-10-16

    Abstract: 본 발명은 다채널 음원보드와 마이크가 장착된 지능형 로봇에서 주파수영역 특성을 이용하여 마이크 간의 지연시간 값과 이들로부터 위치 추적각도를 구하는 방법에 관한 것으로, 음원 추적이 가능한 지능형 로봇은 다채널 음원보드와 마이크를 통해 음성을 취득하는 음성데이터 취득부, 각 마이크로 취득된 음성으로부터 주파수 영역에서의 GCC(Generalized Cross-Correlation)-PHAT(Phase Transform) 기반 음원추적 방법을 이용해 지연시간 값을 구하는 지연시간 처리부, 마이크 간의 지연시간으로부터 후보되는 여러 추적 각도들을 계산하고 이들로부터 신뢰성 있는 추적각도를 추정하는 추적각도 처리부, 추적각도로부터 호출자를 향해 로봇이 회전하는 로봇 구동부를 포함한다. 즉, 본 발명에서는 음원추적장치의 성능척도로써 카메라의 FOV(Field Of View)범위에 의한 추적성공률과 이들의 평균추적오차를 이용하며, 잡음환경이나 반향을 가지는 환경과 근거리 및 원거리(5m 이내)에서 높은 음원추적 성능을 보인다.
    지능형 로봇, 음원추적, GCC-PHAT, FOV , 추적성공률

    화자 기록 장치 및 방법
    118.
    发明授权
    화자 기록 장치 및 방법 失效
    扬声器报警系统和记录数据的方法

    公开(公告)号:KR100911830B1

    公开(公告)日:2009-08-13

    申请号:KR1020070089141

    申请日:2007-09-03

    Abstract: 본 발명은 화자 기록 장치 및 방법에 관한 것으로, 회의나 컨퍼런스 등에서 녹취된 발언 내용과 관련하여 각 화자의 식별 정보를 각각의 발언 구간과 동기화하여 제공함으로써 회의에 참석하지 않았거나 참석하였더라도 참석자들의 목소리에 익숙하지 않음으로 인해 목소리만으로는 각 발언의 화자를 식별할 수 없는 경우에 화자 식별 정보를 통해 해당 발언의 화자를 쉽게 확인할 수 있도록 하여 화자에 대한 혼동이 발생하지 않는 이점이 있다.
    회의 기록, 화자 인식, 화자 식별 정보

    초기 템플릿 생성 장치 및 방법
    119.
    发明授权
    초기 템플릿 생성 장치 및 방법 失效
    用于产生初始模板的系统和方法

    公开(公告)号:KR100901272B1

    公开(公告)日:2009-06-09

    申请号:KR1020070085539

    申请日:2007-08-24

    Abstract: 본 발명에 따른 초기 템플릿 생성 장치는, 로봇에 장착된 영상 촬영 수단을 이용하여 영상을 획득하는 영상 입력부와, 로봇을 회전 이동시키며, 이동 중에 기 설정된 간격으로 영상 입력부로부터 영상을 제공받아 등록 영상을 수집하는 등록 영상 수집부와, 수집된 등록 영상에서 얼굴 영역에 대해 정규화한 후 특징 부분을 검출하여 사용자의 초기 템플릿을 생성하는 얼굴정보 등록부를 포함한다.
    이와 같이, 본 발명은 로봇을 회전 이동시키면서 영상을 입력받고, 입력받은 영상을 토대로 등록 영상을 수집한 후 이를 토대로 초기 템플릿을 구성함으로서, 조명 및 자세 등의 다양한 환경에서 얼굴 형상 변화가 포함된 영상들을 이용하여 초기 템플릿을 구성할 수 있어 열악한 환경에서의 얼굴 인식을 요구하는 로봇에서 얼굴 인식의 성능을 향상시킬 수 있다.
    로봇, 사용자 인식, 얼굴 인식, 얼굴 등록, 초기 템플릿

    초기 템플릿 생성 장치 및 방법
    120.
    发明公开
    초기 템플릿 생성 장치 및 방법 失效
    用于产生初始模板的系统和方法

    公开(公告)号:KR1020090020902A

    公开(公告)日:2009-02-27

    申请号:KR1020070085539

    申请日:2007-08-24

    Abstract: An initial template generation apparatus and a method thereof are provided to form an initial template including face shape change in various environments. A video input part(100) obtains image by using an image photographing device mounted to a robot. A registration image gathering unit(120) rotates and moves the robot. The image is provided from the video input part to the registration image gathering unit. The registration image gathering unit collects the registration image. A face information directory(140) performs normalization about a face range in the collected registration image. The face information directory detects a characteristic portion and produces the initial template of the user.

    Abstract translation: 提供初始模板生成装置及其方法以形成包括各种环境中的脸部形状变化的初始模板。 视频输入部(100)通过使用安装在机器人上的图像拍摄装置获取图像。 登记图像采集单元(120)旋转并移动机器人。 图像从视频输入部分提供给注册图像收集单元。 登记图像收集单元收集登记图像。 面部信息目录(140)对所收集的登记图像中的面部范围进行归一化。 面部信息目录检测特征部分并产生用户的初始模板。

Patent Agency Ranking