Abstract:
본 발명은 상호작용성 로봇에 대하여 개시한다. 본 발명의 일면에 따른 상호작용성 로봇은, 인간의 행위에 대한 센싱정보들을 이용하여 상기 인간의 의도를 파악하는 인지부; 상기 파악된 의도에 대응하는 서비스를 제공하고, 그에 대한 상기 인간의 반응을 감지하는 서비스 제공부; 및 상기 감지된 반응을 분석하여 상기 인지부의 파악결과에 대한 신뢰성을 판단하는 상호작용부를 포함하는 것을 특징으로 한다. 상호작용, 로봇 제어, 지각센서, 휴머노이드, 반응 감지
Abstract:
PURPOSE: A locating device and method are provided to improve the accuracy of positioning by combining various context information when locating a user-carrying/wearing device associated with an RF based radio network. CONSTITUTION: A locating unit(107) calculates the location of a mobile RF node based on the location information of a fixed RF node and a message inputted from the mobile RF node and outputs the location information of the mobile RF node. A context storage unit(109b) stores a recognition result inputted from a recognition device as context information on user's location. An inferring unit(108) corrects the distortion of the location information of the mobile RF node inputted from the locating unit by referring to the context information stored in the context storage unit.
Abstract:
PURPOSE: An object tracking apparatus and method thereof are provided to reduce object tracking failure rates in the change of a background area by accurately confirming the boundary of an object. CONSTITUTION: An object analysis unit(301) analyzes the inputted image of an object area as object feature information. A background analysis unit(302) analyzes a back ground area for the object area background feature information. The object analysis unit tracks the object area by using the analyzed background feature information and the analyzed object feature information. The background analysis unit includes a background modeling unit. The background modeling unit models the background area as the background feature information.
Abstract:
영상으로부터 배경 영상을 모델링할 수 있는 배경 모델링 방법이 제공된다. 배경 모델링 방법은, 획득된 영상에서 객체의 모션 발생 영역 및 객체의 전신 영역을 검출하여 객체 영역을 출력하는 단계, 영상으로부터 객체 영역을 제외한 배경 영상을 생성하여 출력하는 단계 및 영상과 배경 영상의 차이에 기초하여 객체 실루엣을 검출하여 출력하는 단계를 포함한다.
Abstract:
PURPOSE: A multi-sensor signal data processing system, a walking supporting apparatus comprising the system, and a method for controlling the apparatus are provided to help walking of a user by sensing user's walking intension and walking in real time. CONSTITUTION: A multi-sensor signal data processing system comprises: a wire/wireless communication unit(142) which receives a first sensor signal corresponding to the power applied to the left palm, a second sensor signal corresponding to the power applied to the right palm, a third sensor signal corresponding to the power applied to the left plantar, and a fourth sensor signal corresponding to the power applied to the right plantar; a sensor information processor(146) outputting a walking intention signal if user's walking intention is confirmed; and a controller(148) generating a necessary driving signal.
Abstract:
PURPOSE: A baby care robot and a control method thereof are provided to allow a protector to monitor a baby while doing a task by keeping the baby within the visual field of the protector. CONSTITUTION: A baby care robot comprises a sensing unit(210) and a control unit(220). The sensing unit senses the distance from a protector. The control unit controls the robot to follow the protector while keeping a set range of distance from the protector on the basis of the sensed distance.
Abstract:
PURPOSE: A device and a method for tracking a face at a long distance are provided to accurately detect and track a far-distanced very small face at a low resolution in order to prevent the wrong detection which tracks a non-facial portion. CONSTITUTION: An image input unit(110) generates continuous image frames by inputting a video image, and a face tracking initializing unit(130) detects an omega region and a facial region of a human from the image frames. The face tracking initializing unit sets the estimated facial region as tracking start region information. A remote face tracker(150) detects a facial region at a short distance within the facial detection region.
Abstract:
PURPOSE: A method and an apparatus for recognizing a face by a block unit are provided to determine similarity by comparing face images by a block unit, thereby producing various combinations of images to increase variety of face images. CONSTITUTION: A query face image is divided into fixed blocks and a feature value is extracted from each block. A feature value extracting unit(200) extracts a feature value from an inputted face image by a fixed block unit. A block similarity calculating unit(410) calculates block similarity between the query face image and a registration face image. The block similarity calculating unit compares a feature value of a fixed block of the query face image with a feature value of a block of the registration image corresponding to a fixed block of the query face image.
Abstract:
PURPOSE: A user recognition device and a user recognition method are provided to use a walking pattern as ID information of a user, thereby improving a recognition rate of the user through simple configuration. CONSTITUTION: A sensing unit(110) senses vibration due to walking of a user to output an electrical signal. A pattern calculator(130) obtains a walking pattern of a pedestrian from the electrical signal. A user decider(150) compares the walking pattern with reference date. The user decider identifies a user based on the comparison result.
Abstract:
본 발명은 임의로 배열된 세 개 이상의 마이크로폰(microphone)을 장착한 로봇 환경에서의 음원 방향 결정 기술에 관한 것으로, 특히 두 개의 마이크로폰 사이에서 각각 발생하는 신호 도달 시간 차이를 이용하여 음원의 방향을 탐지하는 기술에 관한 것이다. 본 발명에 따라 세 개의 마이크로폰을 사용할 경우, 총 여섯 개의 후보 방위각을 추정할 수 있는데, 이는 각각 해당 마이크로폰을 기준으로 한 방위각이다. 즉, 제 1 마이크로폰과 제 2 마이크로폰간의 시간 지연으로 추정된 두 개의 후보 방위각은 제 1 마이크로폰을 0°로 가정하여 추정된 각이고, 제 2 마이크로폰과 제 3 마이크로폰 간의 시간 지연으로 추정된 두 개의 후보 방위각은 제 2 마이크로폰을 0°로 가정하여 추정된 각이다. 따라서 여섯 개의 후보 방위각을 로봇의 정면을 기준으로 환산해야 한다. 각각의 마이크로폰 쌍에서 측정된 지연시간이 정확하다면 여섯 개의 각 중 세 개의 각은 군집해 있을 것이므로 이것을 음원의 방향으로 결정한다. 본 발명에 의하면, 임의로 배열된 세 개의 마이크로폰을 갖는 로봇에서 음원의 방향을 정확히 결정하도록 함으로써, 로봇이 사용자에게 보다 인간 친화적인 서비스를 제공할 수 있다. 지능형 로봇, 3채널, 음원 방향 탐지, 인간-로봇 상호작용