Abstract:
지능 로봇은, 사용자 정보 및 상호작용 내력 정보를 저장하는 데이터베이스; 하나 이상의 사용자에 관련된 다중 센서 정보를 수신하며, 상기 다중 센서 정보를 상기 사용자 정보와 비교하여 상기 하나 이상의 사용자를 특정하고, 상기 다중 센서 정보를 이용하여 상기 하나 이상의 사용자 각각의 위치 정보 및 표현 정보를 산출하는 센싱부; 상기 상호작용 내력 정보, 상기 다중 센서 정보, 상기 위치 정보 및 상기 표현 정보에 기초하여, 상기 하나 이상의 사용자 중 관심 대상 사용자를 결정하는 판단부; 상기 관심 대상 사용자와 상호작용을 수행하기 위한 제어 데이터를 생성하는 제어 데이터 처리부; 및 상기 제어 데이터를 이용하여 구동되는 구동부를 포함할 수 있다.
Abstract:
로봇을 이용한 인지능력 훈련 장치 및 그 방법이 개시된다. 본 발명의 일 태양에 따르면, 로봇의 행동을 제어하는 일련의 로봇 교시를 상기 로봇에 전송하는 교시 생성부; 피훈련자의 3차원 위치 정보와 색상 정보를 포함한 센서 정보를 수집하는 센서부; 수집된 센서 정보에 기반하여 피훈련자 행동 정보를 생성하는 피훈련자 행동 정보 생성부; 및 로봇 교시와 피훈련자 행동 정보에 기반하여 상기 피훈련자의 인지능력을 산출하는 인지능력 판단부를 포함하는, 인지 능력 훈련 장치가 개시된다.
Abstract:
본 발명의 일실시에 따른 실시간 음성 활동 검출 장치(100)는 음향신호를 입력받는 하나 이상의 마이크로폰 및 마이크로폰으로 입력되는 아날로그 음향신호를 디지털 음향신호로 변환하는 변환기를 포함하는 음향신호 획득부(110), 이중 포트 메모리를 이용하여 음향신호 획득부(110)의 디지털 음향신호를 버퍼링하는 음향신호 버퍼링부(120), 음향신호 버퍼링부(120)에 저장된 음향신호에서 음향 프레임 단위로 주기적 특징이 존재하는지 여부를 연산하는 주기성 연산부(130), 및 주기성 연산부(130)의 연산 결과에 따라 음성 검출 신호를 출력하는 음성 검출 출력부(150)를 포함한다.
Abstract:
PURPOSE: A real time voice activity detecting device and a method thereof are provided to store a voice signal in a plurality of parallel buffers and simultaneously extract two feature information from the stored data. CONSTITUTION: A sound signal buffering unit(120) buffers a digital sound signal of a sound signal obtaining unit(110). A periodicity calculating unit(130) calculates whether the stored sound signal has a periodic feature at a sound frame unit. A voice detection output unit(150) outputs a voice detection signal according to the calculation result. A sample delay storage unit(160) delays and stores the sound signal as much as reference time to output the stored sound signal by synchronization with an output signal of the voice detection output unit. [Reference numerals] (100) Real time voice activity detecting device; (110) Sound signal obtaining unit; (120) Sound signal buffering unit; (130) Periodical calculating unit; (140) Energy calculating unit; (150) Voice detection output unit; (160) Sample delay storage unit; (AA) Voice signal; (BB) Voice activity detection result; (CC) Delayed voice signal
Abstract:
본 발명은 실시간 음원 방향 감지 장치 및 그 방법에 관한 것으로, 적어도 둘 이상의 채널을 통해 음향 신호를 획득하는 음향 신호 획득부, 채널 별로 획득한 음향 신호로부터 샘플링된 데이터를 소정의 시간 동안 저장하기 위한 샘플 지연 저장부, 다수의 샘플링된 데이터로부터 채널들의 상관 관계를 연산하는 상관관계 연산부 및 채널 간의 상관 관계와 음향 신호 획득부의 위치 관계를 이용하여 음원의 방향각을 연산하는 음원 방향 연산부를 포함하는 실시간 음원 방향 감지 장치 및 그 방법을 제공함으로써 실시간으로 음원의 방향을 검출할 수 있다.
Abstract:
PURPOSE: A real-time sound source direction detection apparatus and method thereof are proceed the parallel processing by at the same time approaching the constant section sample of the obtained voice. CONSTITUTION: An acoustic signal acquisition part(110) gets the acoustic signal through two or more channels. A sample delay storage(140) stores data sampled from the acoustic signal which especially obtains channel the predetermined for hour. A correlation operation unit(150) computes the correlation of channels from the sampled data as described above.
Abstract:
PURPOSE: A real time eye detecting device and a method thereof are provided to detect an eye area of downscaling images for an eye candidate area in real time by generating the images in parallel. CONSTITUTION: An eye candidate area obtaining unit(110) obtains an eye candidate area from an image including a face area. An eye candidate area resizing unit(120) generates downscaling images for the eye candidate area. An MCT(Modified Census Transform) unit(130) performs MCT computation for the image of the eye candidate area and the images generated by the eye candidate area resizing unit. A learning data comparing unit(140) generates a window of the images and matches reliability values about pixels composing the window. [Reference numerals] (100) Real time eye detecting device; (110) Eye candidate area obtaining unit; (120) Eye candidate area resizing unit; (130) MCT unit; (140) Learning data comparing unit; (150) Eye detecting unit; (160) Memory unit
Abstract:
본 발명의 일 예에 따른 실시간 얼굴 인식 장치(100)는 입력된 영상에서 얼굴의 영상 좌표를 획득하여 얼굴 영상을 검출하는 얼굴 검출부(110), 얼굴 검출부에서 검출된 얼굴 영상에서 양안의 영상좌표를 획득하기 위한 눈검출부(120), 얼굴 검출부에서 검출된 얼굴 영상에서 병렬처리를 통한 특징 히스토그램 데이터를 생성하는 얼굴특징추출부(130), 사전에 생성된 비교 특징 히스토그램이 저장되는 데이터베이스부(140), 얼굴특징추출부에서 생성한 히스토그램 데이터와 데이터베이스부(150)에 저장된 비교 특징 히스토그램을 비교하여 얼굴 영상의 유사도를 출력하는 히스토그램 매칭부(160)를 포함한다. 이렇게 구성된 얼굴 인식 장치는 VGA 카메라와 전용칩이 인터페이스 된 내장형 하드웨어로 구현하여 시스템의 부피와 설치비용을 획기적으로 줄일 수 있고, 별도의 장비 추가 없이 실시간으로 얼굴인식을 수행할 수 있다.
Abstract:
PURPOSE: A device for recognizing a face at real time is provided to access to a plurality pixels at the same time and performs a parallel processing, thereby the device is used generally in application fields using voice processing by higher performance. CONSTITUTION: A down-scaling unit(110) performs down-scaling of inputted image at least one rate. A facial image comparator(130) generates windows per one or more down-scaled images. The facial image comparator obtains facial area reliability of the window image through comparison between an image of the generated window and reference face image. The facial area comparator determines whether the window image is relevant to a facial area.
Abstract:
A method and an apparatus for tracking multiple objects in real-time are provided to set priority to each particle filter, receive the subtraction image of the same priority to set a tracking target object in each particle filter, and receive a subtraction image, in which an area corresponding to the tracking target object which an upper particle filter is tracking is removed, and set a tracking target object, thereby reducing the increase of calculation caused by the extension of a tracking range as the number of tracking target objects increases and reducing the deterioration of tracking performance. An apparatus(100) for tracking multiple objects includes S particle filters(170a~170s), wherein S is an arbitrary natural number, a camera controller(120), an image storage memory(130), a priority distributor(150), and an image subtraction unit based on priority(140). The camera controller receives an original image from a camera(110) and outputs image information corresponding to the received original image. The image storage memory stores the image information. The priority distributor sets priority by using an object tracking result of particle filters. The image subtraction unit based on priority generates k priority subtracted image by using the image information of continuous frames read from the image storage memory and the area information of objects tracked by the (k-1) particle filters, wherein k is an arbitrary natural number in a range of 1 to S. The particle filters perform object tracking by using the priority subtracted images to output location information.