Abstract:
본 발명은 안전 생활 지원 장치 및 방법에 관한 것으로, 본 발명에 따른 일 실시예는 센서에 관한 정보, 디바이스에 관한 정보 및 사용자에 관한 정보를 수신하는 정보 수신부, 상기 센서에 의해 측정되는 센싱값 정보 및 상기 디바이스의 동작 상태 정보를 이용하여 상황 패턴 정보를 생성하는 패턴 정보 생성부, 상기 상황 패턴 정보와 상기 센싱값 정보 및 상기 동작 상태 정보를 비교하여, 현재 상황을 인지하는 상황 인지부, 상기 현재 상황에 상응하는 상기 디바이스의 제어 서비스를 검색하는 프로파일부 및 상기 제어 서비스를 기초로 상기 현재 상황에 맞는 상기 디바이스의 제어를 수행하는 상황 처리부를 포함하는 안전 생활 지원 장치를 제공할 수 있다.
Abstract:
PURPOSE: A motion effect data generating device and a method thereof are provided to effectively produce four-dimensional realistic media offering impressive motion effects to a user by generating optimal motion effect data. CONSTITUTION: A motion effect data generating device divides motion data into multiple regions according to the change of the motion data and determines the motion effect type of the motion data of each region through the comparison of the motion data of each region and a template stored in a motion effect type database(S20,S30). The motion effect data generating device extracts a motion effect pattern corresponding to the motion data of each region from a motion effect database according to the determined type and generates final motion effect data(S50,S60). [Reference numerals] (AA) Start; (BB) End; (S10) Receive input of motion data; (S20) Divide and analyze motion data by sections; (S30) Determine type of motion effect; (S40) Convert motion data by type of motion effect; (S50) Extract optimum motion data pattern; (S60) Generate motion effect data
Abstract:
PURPOSE: A sensory effect detection device and a method thereof are provided to easily and quickly produce 4D sensory effect media suitable for media contents by detecting motion effect through combination of detection result of a viewpoint motion detection unit, an object location detection unit and an object rotation detection unit, synchronizing the detected motion effect and combining the synchronized motion effect to media. CONSTITUTION: An object motion detection unit(210) detects motion effect of a specific object within an image. A viewpoint motion detection unit(220) detects viewpoint motion effect generated according to movement and angle variation of a camera. A motion parameter detection unit(230) detects the final motion effect using the detected object motion effect and the detected viewpoint motion effect. [Reference numerals] (211) Position detection unit; (211A) Object modeling unit; (211B) Object position detection unit; (212) Rotation detection unit; (212A) Object rotation modeling unit; (212B) Object rotation detection unit; (220) Viewpoint motion detection unit; (221) Viewpoint modeling unit; (222) Viewpoint detection unit; (230) Motion parameter detection un
Abstract:
A platform and a method for reconfiguring a reconfigurable base station are provided to offer a user high quality service as well as to enhance efficiency of frequency resources by changing frequencies or services selectively according to an environment, a user request or QoS(Quality of Service). A platform for reconfiguring a reconfigurable base station includes a CR(Cognitive Radio) function unit(100) and an SDR(Software Defined Radio) platform(200). The CR function unit actively recognizes a situation like a channel feature caused by different frequencies, time assignment distribution or unique environment characteristics and assigns available wireless resources to a user based on the recognized information. The SDR platform reconfigures flexibly a transmitting or receiving system like a base station or a terminal via a software based on transmitting or receiving algorithm information like information on frequencies, bandwidth, a multiplexing scheme, a modulating/demodulating scheme, channel coding, transmission power and others.
Abstract:
A method for optimizing cognitive radio communication system variables and a computer-readable recording medium storing a program therefor are provided to increase a convergence speed by allocating an arbitrary solution within a target range as a system variable of radio communication and reducing radio configuration genes of a chromosome used for a gene algorithm. System variables required to be optimized by the user of radio communication are set as knobs or meters(S1). A target that can be set in the system with respect to the set knobs or meters is set(S2). A solution within the bounds of the target is extracted among solutions of the system variables(S3). System variables are set according to the solution(S4).
Abstract:
본 발명은 가상 입체 음향 생성 장치 및 그 방법에 관한 것이다. 본 발명에서는 다채널의 입체음향 신호를 2채널의 가상입체음향 신호로 변환한다. 예를 들어, 5.1채널을 포함한 다채널의 입체음향 신호를 머리전달함수(Head-Related Transfer Function: HRTF) 등을 이용하여 2 채널의 가상 입체 음향 신호로 변환한 후, 오디오 부호화기를 사용하여 2채널의 부호화된 가상입체음향 신호를 생성한다. 이와 같이, 생성된 2 채널의 가상 입체 음향 신호는 온라인 또는 오프라인을 통해 개인용 컴퓨터, 이동단말기(핸드폰, PDA 등) 등의 재생 장치로 전송되어, 2채널의 헤드폰 또는 스피커를 통하여 가상입체음향으로 재생된다. 이러한 본 발명에 따르면, 재생 장치에서 부호화된 다채널 오디오 신호를 복호화하고 2채널의 가상입체음향으로 변환하는 과정 없이, 2채널의 가상입체음향 오디오 신호를 복호화하여 헤드폰 또는 스피커로 가상입체음향을 재생할 수 있다. 입체음향, 가상입체음향, 오디오, HRTF, 머리전달함수
Abstract:
본 발명은 입체 음향 시스템 및 입체 음향 구현 방법에 관한 것이다. 본 발명에서는 압축된 5.1 채널 데이터를 수신한 다음에 복호화 한 후 머리전달함수(HRTF)와 유한 및 무한 임펄스 응답 필터로 처리한 2개의 채널 신호를 생성한다. 즉, 머리전달함수를 사용하여 원하는 방향에 음원을 정위시키며, 앞/뒤 방향을 강조하기 위해 머리전달함수에 가중치를 주며, 음장 제어를 위하여 잔향기를 사용하여 3차원의 입체 음향을 구현한다. 이러한 본 발명에 따르면, 일반적인 5.1채널 시스템과 같이 전방 가운데, 전방 좌우, 후방 좌우 5개의 채널에 해당하는 음원을 각각 가상적으로 설정하여 헤드폰에서도 멀티 채널에 의한 다차원 음장을 구현할 수 있다.
Abstract:
PURPOSE: An LSF(Line Spectral Frequency) vector quantization apparatus for a voice codec is provided to improve the performance of a PPVQ(Predictive Pyramid Vector Quantization) by applying a weight value according to the degree of an LSF vector to an input vector of the PPVQ. CONSTITUTION: A switch(11) decides the quantization scheme of an LSF vector according to voice/non-voice information of a current frame. A voice frame PVQ(12) selected by the switch(11) applies a weight value according to the degree of an LSF coefficient to the LSF vector of a voice frame, and quantizes the LSF vector. A non-voice frame PVQ(13) selected by the switch(11) applies the weight value according to the degree of the LSF coefficient to an LSF vector of a non-voice frame, and quantizes the LSF vector. A switch(14) selectively outputs the LSF vectors quantized by the voice frame PVQ(12) and the non-voice frame PVQ(13).