Abstract:
임베디드 시스템에서 동영상 및 스킨 합성 장치 및 그 방법이 개시된다. 그래픽 카드를 내장하지 않는 임베디드 시스템에서 본 발명에 따른 동영상 및 플레이어 스킨 합성 장치는 응용프로그램, 가상 프레임 버퍼, 그래픽 처리부 및 영상 처리부를 포함하는 것을 특징으로 하며, 그래픽 카드 없이 가상 프레임 버퍼를 이용하여 동영상 플레이이어 스킨 이미지를 처리하고, 이를 물리적 메모리인 메인 메모리 상의 일정 공간을 할당 받아 저장 및 출력함으로써, 고성능의 중앙 연산 장치를 필요로 하지 않으며, 하드웨어 구조를 단순화 시킬 수 있고, 운영체제에 맞는 프레임 버퍼 및 드라이버의 개발 없이 상위 응용 프로그램으로 구현이 가능하다.
Abstract:
본 발명은 의사소통의 장애인이 장애인 및 일반인과 의사소통을 위한 통신을 원활하도록 하는 개방 API 응용 통신 서비스 시스템 및 방법에 관한 것이다. 본 발명은, 장애인 및 일반인용 단말부는 유무선 통합 네트워크에 접속하여 개방 API 응용 통신 서버에 자신의 통신 특성을 등록하고, 개방 API 게이트웨이는 상기 유무선 통합 네트워크에 대한 개방 API의 통신 인터페이스를 제공하고, 상기 개방 API 응요 통신 서버는 상기 단말부의 통신 특성을 등록하고 상기 등록된 단말부의 통신 특성에 따라 장애인을 위한 음성 및/또는 텍스트의 통신 서비스를 수행한다. 이때, 음성/텍스트 변환부는 상기 개방 API 응용 통신 서버부로부터 전달된 데이터를 장애인의 특성에 따라 요청된 서비스 형태의 음성 및/또는 텍스트로 변환하여 상기 개방 API 응용 통신 서버부로 리턴한다. 본 발명에 따르면, 서로 다른 의사소통의 장애인간에 또는 장애인과 일반인간의 통신 서비스를 안전하고 쉽게 이용할 수 있다.
Abstract:
PURPOSE: An open API application communication service system and method for handicapped persons is provided to execute voice/text conversion in consideration of the features of each user terminal and to offer a safe, convenient communication service. CONSTITUTION: An open API application communication service system consists of an open API application communication server(101), a voice/text conversion center(102), an open API part(103), an open API gateway part(104), a wired/wireless integrated network(110), and user terminals(100). The open API gateway part(104) provides an open API communication interface for the wired/wireless integrated(110). The open API part(103), catching the communication features of the user terminals, contains a plurality of application functions for the communication service of the user terminals. The open API application communication server(101) registers the communication features of the user terminals, and executes voice/text communication services according to the registered communication features. The voice/text conversion center(102), if data are transferred from the pen API application communication server(101), converts the data into voice or text data according to the feature of a handicapped person, and returns the converted data to the open API application communication server(101).
Abstract:
The present specification provides a method and an apparatus for reproducing immersive media for a mobile equipment environment. According to the present specification, a mobile terminal for reproducing immersive media includes: an immersive media storage unit which stores an immersive media file; an immersive media analysis unit which loads the immersive media file, analyzes the immersive media file, and divides the immersive media file into video, audio, and immersive effect metadata; a media display which displays the video or the audio; a metadata parser which parses the divided immersive effect metadata; a metadata mapping unit which maps the parsed immersive effect metadata by immersive effects; a device synchronization control unit which adjusts the time synchronization of the immersive effect metadata to the time synchronization of the video or the audio; and a device control information transmitting unit which transmits, to an immersive media reproducing apparatus, control information including the time synchronization information of the immersive effect metadata and the mapping information of the immersive effect metadata.
Abstract:
PURPOSE: A system for obtaining a real feeling and a method thereof are provided to extract valid data based on sensing data and generate real feeing effect metadata by the valid data. CONSTITUTION: If an external setup event is not generated from an external server, a system extracts valid data(S307b,S309). The system generates real feeling effect metadata based on the valid data(S311). If a current mode is a transmission mode, the system transmits the real feeling effect metadata to the external server through a network communication interface unit(S313,315). If the current mode is not the transmission mode, the system stores the real feeling effect metadata(S317).
Abstract:
PURPOSE: A system for obtaining a real feeling and a method thereof are provided to extract valid data by detecting information around a camera when an image is obtained and generate metadata with real feeling effects by using the valid data. CONSTITUTION: An environment setup unit(2101,2103) sets a reference value for extracting valid data from sensing data of a sensing unit. A real feeling effect metadata generating unit(211,212) extracts the valid data from the sensing data according to the set reference value. The real feeling effect metadata generating unit generates metadata with real feeling effects. A start/end processing unit(205) controls the sensing unit according to image obtaining start and end points of an image obtaining device.
Abstract:
본 발명은 다중 디바이스 제어 서버와 지그비 코디네이터 및 앤드 디바이스와 이를 위한 다중 디바이스 제어 방법에 관한 것으로, 하나의 미디어에 포함되어 전송된 실감효과 메타 데이터를 기반으로 다중 디바이스 제어서버에서 디바이스 제어 명령을 생성하여 지그비로 연결된 다중 디바이스에 전송하고 개별 디바이스에서는 내부 인터페이스 명령 및 IR 코드 신호를 생성하여 실감 효과 디바이스를 제어함으로써, 미디어를 즐기는 사용자가 주변의 실감 효과 디바이스들이 미디어에 동기화되어 동작됨에 따라 미디어를 실감나게 볼 수 있는 즐거움이 있다. 또한, 본 발명은 지그비 실감 효과 디바이스 뿐만 아니라 지그비 대 IR 실감 효과 디바이스를 모두 제어함으로써, 기존의 레거시 IR 가전기기에 대해서도 실감 효과 제어를 변경없이 수행할 수 있는 이점이 있다. 실감 효과 디바이스, 앤드 디바이스, 코디네이터, 서버