-
-
公开(公告)号:KR101574968B1
公开(公告)日:2015-12-08
申请号:KR1020100107811
申请日:2010-11-01
Applicant: 한국전자통신연구원
CPC classification number: G06F21/32
Abstract: 본발명은모바일기기가내부구조및 크기를변경하지않으면서서비스제공에필요한생체인식데이터를획득할수 있도록하는휴대용센서장치및 이를포함하는생체인식기반의서비스시스템에관한것으로, 상기휴대용센서장치는생체인식데이터를획득하는센서부; 상기근거리무선망을통해, 상기생체인식데이터를상기모바일기기에제공하거나상기모바일기기의요청을입력받는근거리무선통신부; 상기모바일기기또는사용자의요청에응답하여생체인식데이터의획득을명령하는마이크로프로세서; 및상기사용자의요청을입력받거나상기휴대형센서장치의동작상태를표시하는사용자인터랙션부를포함한다.
-
公开(公告)号:KR1020150039252A
公开(公告)日:2015-04-10
申请号:KR1020130117373
申请日:2013-10-01
Applicant: 한국전자통신연구원
IPC: G06T7/20
CPC classification number: G06K9/00342 , G06K9/6269 , G06K2009/4666
Abstract: 본발명의행동인식기반의응용서비스제공장치는, 카메라로부터제공되는깊이영상을수집하는영상입력블록과, 수집된깊이영상으로부터인체를검출하는인체검출블록과, 상기인체로부터추출한 3차원액션볼륨과기 학습된행동모델에의거하여상기인체의행동을인식하는행동인식블록을포함할수 있다.
Abstract translation: 基于动作识别的应用服务提供装置的本发明包括:图像输入块,其收集由相机提供的深度图像; 人体检测块,其从所收集的深度图像中检测人体; 以及动作识别块,其根据从人体提取的3维动作体积识别人体的动作,以及预先获知的动作模型。
-
公开(公告)号:KR101484043B1
公开(公告)日:2015-01-19
申请号:KR1020100122186
申请日:2010-12-02
Applicant: 한국전자통신연구원
Abstract: 본 발명은 자동차 번호판의 문자열/숫자열에 기초하여 차량 식별자로 자동차 번호판을 인식하는 시스템 및 그 방법에 관한 것이다. 본 발명은 다양한 형태의 자동차 번호판에 대한 선행 학습을 통해 얻은 결과를 기초로 문자열/숫자열과 관련한 관심영역 후보군을 검출하고, 미리 정해진 5가지 조건 중 적어도 하나의 조건을 이용하여 검출된 관심영역 후보군을 검증하며, ROI 영역의 높이와 너비의 비를 고려해서 검증된 관심영역 후보군으로부터 선택된 ROI 영역 내의 번호판 MBR 영역을 결정하여 자동차 번호판을 인식한다. 본 발명에 따르면, 각 나라마다 정의된 다양한 형태의 번호판 규격과 관계없이 번호판의 위치를 자동으로 검출할 수 있다.
-
公开(公告)号:KR1020140043174A
公开(公告)日:2014-04-08
申请号:KR1020120108476
申请日:2012-09-28
Applicant: 한국전자통신연구원
CPC classification number: A63B69/04 , A61B5/1116 , A61B5/1176 , A63B24/0006 , A63B71/0622 , A63B2024/0012 , A63B2024/0015 , A63B2071/063 , A63B2071/0638 , A63B2220/807 , A63B2225/15 , A63B2230/62 , G06K9/00362 , G06K9/00892 , G09B9/02 , G09B19/0038
Abstract: Disclosed are a simulator for horse riding which adaptively operates for users, and a method for simulating the horse riding. The simulator for horse riding comprises: a user identification part for identifying a user by using a user identification information according to a face of the user extracted from input images; a posture recognition part for outputting a user posture information by extracting a specific body part information of the user from the input images; a coaching part for providing the user an educational information about horse riding postures based on the user identification information and the user posture information; and an actual horseback riding sensing part for controlling the horse riding machine based on user intended postures which are output by analyzing the user posture information. Therefore, user-customized horse riding education can be provided through the identification of users and the recognition of the postures of users. In addition, an actual sensing type of simulation for horse riding can be provided by converting modes of the horse riding machine to correspond to the user intended postures. [Reference numerals] (100) User identification part; (110) Face detection unit; (120) Facial characteristic extraction unit; (200) Posture recognition part; (210) User region extracting unit; (220) Posture information outputting unit; (300) Coaching part; (310) Motion data storage part; (320) Model matching unit; (330) Horse riding education unit; (400) Actual horseback riding sensing part; (410) Intended posture outputting unit; (420) Machine controlling unit; (AA,BB) Input image
Abstract translation: 公开了一种适用于用户的骑马模拟器,以及用于模拟骑马的方法。 用于骑马的模拟器包括:用户识别部分,用于根据从输入图像提取的用户的脸部使用用户识别信息来识别用户; 姿势识别部,其通过从所述输入图像提取所述用户的特定身体部位信息来输出用户姿势信息; 基于用户识别信息和用户姿势信息向用户提供关于骑马姿势的教育信息的辅导部分; 以及基于通过分析用户姿势信息输出的用户期望的姿势来控制骑马机的实际的骑马感测部。 因此,用户定制的骑马教育可以通过用户的识别和用户的姿态的识别来提供。 另外,可以通过将骑马机的模式转换为与用户期望的姿势对应来提供用于骑马的实际感测类型的模拟。 (附图标记)(100)用户识别部分; (110)面部检测单元; (120)面部特征提取单位; (200)姿态识别部分; (210)用户区域提取单元; (220)姿势信息输出单元; (300)教练部分; (310)运动数据存储部分; (320)型号匹配单元; (330)骑马教育单位; (400)实际骑马感应部分; (410)预期姿势输出单元; (420)机器控制单元; (AA,BB)输入图像
-
公开(公告)号:KR1020140025814A
公开(公告)日:2014-03-05
申请号:KR1020120091970
申请日:2012-08-22
Applicant: 한국전자통신연구원
CPC classification number: G06F13/14 , B25J9/1656 , B25J13/02 , G06F9/451 , G06F17/2217 , G06F17/30023
Abstract: Service robot developers and application programmers have produced a service application in a manner of directly controlling hardware, and this causes limitations on the reusability of the service application and the expandability of a service robot market as wells as the overall change in the service application whenever the hardware is changed. According to an embodiment of the present invention, provided is an apparatus for a human-robot interaction service, which can be reused without wasting resources, such as time, money, and manpower, by integrating various sensors and hardware (actuators) in a service robot and maintaining compatibility such that service application developers can develop an application in unified standards. Furthermore, the present invention provides an apparatus for a human-robot interaction service, which can promote the reusability of components and improve the efficiency of service application and component development by proposing a unified interface between the components of a service robot technique and the application program, for the service robot market. [Reference numerals] (210) HRI engine 1; (212) Face recognition unit; (214) Wheel control unit; (220) HRI engine 2; (222) RFID tag detection unit; (224) Leg control unit; (AA) Service application 1; (BB) Service application 1'; (CC) Compatibility
Abstract translation: 服务机器人开发人员和应用程序员已经以直接控制硬件的方式生产了服务应用程序,这导致服务应用程序的可重用性和服务机器人市场的可扩展性的限制作为服务应用程序的整体变化 硬件更改。 根据本发明的实施例,提供了一种人机交互服务的装置,其能够通过将各种传感器和硬件(执行器)集成在服务中而不浪费资源(诸如时间,金钱和人力)而被重用 机器人和维护兼容性,使服务应用程序开发人员可以以统一标准开发应用程序。 此外,本发明提供了一种人机交互服务的装置,其可以通过提出服务机器人技术的组件与应用程序之间的统一接口来提高组件的可重用性并提高服务应用和组件开发的效率 ,为服务机器人市场。 (附图标记)(210)HRI发动机1; (212)面部识别单元; (214)车轮控制单元; (220)HRI发动机2; (222)RFID标签检测单元; (224)腿部控制单元; (AA)服务申请1; (BB)服务申请1'; (CC)兼容性
-
7.
公开(公告)号:KR1020110003146A
公开(公告)日:2011-01-11
申请号:KR1020090060771
申请日:2009-07-03
Applicant: 한국전자통신연구원
CPC classification number: G06K9/00355 , G06T7/20 , G06T7/00 , G06T7/40
Abstract: PURPOSE: A gesture recognition apparatus, and a robot system having the same are provided to recognize four gestures such as waving, calling, raising, stopping gesture for remote distance interactivity. CONSTITUTION: A human detection unit(120) detects the face region of a user from an input image. A gesture area setting unit(130) establishes a gesture domain based on the detected face region. An arm detection unit(150) detects arm region of the user within the gesture domain. A gesture decision unit(160) distinguishes a target gesture of the user within the gesture domain with the location of the arm domain, and the analysis of the type information and movement directivity.
Abstract translation: 目的:提供一种手势识别装置和具有该手势识别装置的机器人系统以识别诸如挥动,呼叫,提升,停止用于远距离交互的手势的四种手势。 构成:人体检测单元(120)从输入图像检测用户的脸部区域。 手势区域设置单元(130)基于检测到的脸部区域建立手势域。 手臂检测单元(150)检测手势域内的用户的手臂区域。 手势判定单元(160)将手势域内的用户的目标手势与手臂域的位置,以及类型信息和移动方向性的分析区分开。
-
公开(公告)号:KR100864828B1
公开(公告)日:2008-10-23
申请号:KR1020070015541
申请日:2007-02-14
Applicant: 한국전자통신연구원
Abstract: 본 발명은 화자의 음성 특징 정보를 이용한 화자 정보 획득 시스템 및 그 방법에 관한 것으로, 보다 상세하게는 화자의 음성으로부터 그 음성의 특징 정보를 추출하여 그 정보로부터 화자에 관련된 정보를 획득하는 화자의 음성 특징 정보를 이용한 화자 정보 획득 시스템 및 그 방법에 관한 것이다.
본 명세서에서 개시하는 화자의 음성 특징 정보를 이용한 화자 정보 획득 시스템은 입력되는 화자별 음성 특징 정보에 대한 GMM(Gaussian Mixture Model)을 생성하는 GMM 생성부; 및 상기 GMM과 의사 결정 나무의 각 마디에 구축된 UBM(Universal Background Model)로부터 특정의 음성 특징을 가진 특정 화자에 관한 정보를 도출하는 화자 정보 도출부를 포함하여 본 발명의 목적 및 기술적 과제를 달성한다.-
公开(公告)号:KR100847142B1
公开(公告)日:2008-07-18
申请号:KR1020060119899
申请日:2006-11-30
Applicant: 한국전자통신연구원
Abstract: 본 발명은 조명변화에 관계없이 얼굴 인식을 할 수 있는 얼굴 인식을 위한 전처리 방법, 이를 이용한 얼굴 인식 방법 및 장치를 제공하는 것으로, 얼굴을 포함하는 영상을 입력받는 단계와; 상기 입력된 영상으로부터 얼굴 영역을 추출하는 단계와; 상기 얼굴 영역의 각 픽셀별 해당 이웃 영역을 산출하는 단계와; 상기 산출된 이웃 영역내에서 해당 픽셀의 밝기값보다 작은 밝기값을 갖는 픽셀의 비율에 따라서, 해당 픽셀의 화소값을 조정하는 단계; 및 상기 얼굴 영역의 특징을 추출하여 얼굴 인식을 수행하는 단계를 포함하는 얼굴 인식을 위한 전처리 방법, 이를 이용한 얼굴 인식 방법 및 장치에 관한 것이다.
얼굴 인식, 전처리, 조명 변화-
10.
公开(公告)号:KR100822880B1
公开(公告)日:2008-04-17
申请号:KR1020060104171
申请日:2006-10-25
Applicant: 한국전자통신연구원
IPC: G10L17/02 , G10L15/22 , G10L21/0272 , G06T7/00
Abstract: A user identification system through audio-video based sound localization in intelligent robot environment and a method thereof are provided to ensure more superior accuracy and reliability in complex environment where plural users are present as combining speech recognition, user identification and face recognition together, and provide more human-friendly characteristics, thereby naturally interacting human with a robot in an intelligent robot field. A call voice recognizing unit(10) comprises the followings. A call voice input unit(11) receives a voice. A voice detecting unit(12) detects a start point and an end point of the inputted voice, and removes noise of the detected voice. A speech recognition unit(13) determines a call voice used for an actual call so as for an intelligent robot to react only to a preset specific call voice by recognizing the detected voice. A user identification/verification unit(20) firstly recognizes who is an actual caller for the call voice, and verifies the recognized caller. A sound localization unit(30) performs sound localization by using a delay time for the call voice. A robot control unit(40) rotates a robot as much as an azimuth obtained through the sound localization or controls the robot so as to approach the caller. A face detection/recognition unit searches the verified caller through face detection/recognition in an image inputted through a camera.
Abstract translation: 提供了一种通过智能机器人环境中基于音频视频的声音定位的用户识别系统及其方法,以确保复杂环境中复杂环境下的更高的精度和可靠性,其中多个用户作为组合语音识别,用户识别和人脸识别在一起,并提供 更人性化的特征,从而在智能机器人领域中自然地将人类与机器人相互作用。 呼叫语音识别单元(10)包括以下内容。 呼叫语音输入单元(11)接收语音。 语音检测单元(12)检测输入语音的开始点和结束点,并且去除检测到的语音的噪声。 语音识别单元(13)确定用于实际呼叫的呼叫语音,以便智能机器人仅通过识别检测到的语音来响应预设的特定呼叫语音。 用户识别/验证单元(20)首先识别谁是用于呼叫语音的实际呼叫者,并验证所识别的呼叫者。 声音定位单元(30)通过使用呼叫语音的延迟时间来执行声音定位。 机器人控制单元(40)使机器人旋转到通过声音定位获得的方位角,或者控制机器人以接近呼叫者。 面部检测/识别单元通过通过相机输入的图像中的面部检测/识别来搜索经过验证的呼叫者。
-
-
-
-
-
-
-
-
-