Abstract:
본 발명은 다축 감지 장치의 교정 방법에 관련된 것이다. 본 발명의 다축 감지 장치의 교정 방법은 다축 감지 장치의 가속도 센서 또는 지자계 센서에 대해서 교정을 자동으로 수행하고, 그에 따라 교정된 가속도 센서 또는 지자계 센서의 측정값을 자이로 센서의 교정에 활용함으로써 다축 감지 장치의 교정을 별도의 교정 장치 없이 자동으로 수행할 수 있다.
Abstract:
본 발명의 일 실시예는 사용자가 입력하는 객체 이미지의 형태, 위치, 종류 등에 상관없이, 사용자가 입력한 객체의 이미지라면 어느 것이나 애니메이션화할 수 있다. 이러한 일 실시예에 따르는 자동 애니메이션 방법은 사용자로부터 임의의 객체에 대한 이미지를 입력받는 단계; 상기 객체의 이미지로부터 관절 정보와 상기 객체의 이미지에 대응하는 메쉬 이미지를 추출하는 단계; 실제 객체의 관절 정보를 추출하는 단계; 상기 실제 객체의 관절 정보와 상기 객체의 이미지의 관절 정보를 매칭시키며, 상기 실제 객체가 움직임에 따라 상기 객체의 이미지의 관절 정보의 변화를 추적하고, 상기 추적된 관절 정보에 따라 상기 메쉬 이미지를 변화시켜, 상기 입력된 객체의 이미지를 애니메이팅(animating)하는 단계;를 포함한다.
Abstract:
A method for generating texture for a three-dimensional model, according to an embodiment of the present invention, comprises the steps of: obtaining a three-dimensional model of a subject and a first plane color image through a first recording information acquisition unit; obtaining a plurality of second plane color images for the subject through a second recording information acquisition unit; obtaining a three-dimensional model texture map which represents the three-dimensional model on a plane; and mapping the second plane color images on the three-dimensional model texture map, and texturing the three-dimensional model texture map based on the color information of the second plane color images mapped. Thereby, a three-dimensional color model having high-quality can be produced.
Abstract:
Disclosed are an apparatus and a method for providing augmented reality content based on a web information structure. The apparatus comprises: an HTML document including a URI setting unit for setting a URI corresponding to a POI on a three-dimensional physical space, a POI processing unit for collecting attribute information from a target terminal and identifying the POI using the collected attribute information, and a virtual object processing unit for matching a virtual object related to the URI to the identified POI; and a three-dimensional browser engine, for displaying the POI and the virtual object on a three-dimensional virtual space through a web browser of the target terminal, setting coordinates on the three-dimensional physical space, analyzing video information on the POI and the virtual object based on the set coordinates, and providing the target terminal with the analyzed video information. [Reference numerals] (110) URI setting unit; (120) POI processing unit; (130) Virtual object processing unit; (200) 3D browser engine
Abstract:
The present invention relates to a marker-less augmented reality service providing apparatus and a photographing position estimating method therefor, which studies the feature point of each divided image by dividing a reference image which photographs the entire shape of a target object of a big size and provides an augmented reality service based on the photographing posture and position of a real-time image which is estimated by being compared with the feature point of the real-time image. According to the present invention, the augmented reality service can be provided by estimating the posture and position of a photograph in real-time by having an object which is large provide the mark-less augmented reality service in an existing service as a target object. The present invention is especially useful when providing an augmented reality service in a small terminal device such as a smartphone or a tablet PC. [Reference numerals] (AA) Start; (BB) End; (S301) Divide a reference image; (S302) Extract the feature point of each of the divided images; (S303) Store the extracted feature point according to the divided images; (S304) Obtain a real-time image; (S305) Extract the feature point of the real-time image; (S306) Match the feature point of the divided images with the feature point of the real-time image; (S307) Extract a matched divided image which is matched with the real-time image based on the matched result; (S308) Estimate the photographing posture and position of the real-time image based on the relative position of a feature point which is matched with the feature point of the real-time image in the divided image which is extracted by the matching
Abstract:
The present invention relates to a texture generation device generating high-definition textures mapped on a three-dimensional mesh model indicating the three-dimensional shape of a target object based on a plurality of color images in which the target object is photographed at various angles and a method for the same. According to the present invention, the high-definition textures which are little spread in relatively short time are generated, and reality of the three-dimensional mesh model indicating the three-dimensional shape of the target object is improved. Moreover, quality of a whole digital image in which the target object is included is improved. [Reference numerals] (110) Reference UV map generating unit; (120) Color UV map generating unit; (130) Reference UV map texture mapping unit; (140) Three-dimensional mesh model texture generating unit; (AA) Three-dimensional mesh model; (BB) Color images
Abstract:
PURPOSE: A three dimensional face shape reconfiguration method is provided to restore a three dimensional shape of a face of a person with high definition from a moving picture which includes a front face image of the person. CONSTITUTION: A target frame among input frames is designated to an apparatus and the apparatus recognizes a face area of each frame and one or more characteristics partial areas within the face area (S102,S103). The apparatus warps the rest frames and magnifies the target frame and face areas of the rest frames to the size corresponding to high definition (S104,S105). The apparatus divides the magnified target frame and the face areas of the rest frames into multiple unit patches and changes all pixels forming the face area of the target frame based on the similarity between the unit patches and obtains a high definition face image (S106-S108). [Reference numerals] (AA) Start; (BB) End; (S101) Press successive multiple frames; (S102) Designate a target frame among input frames; (S103) Recognize a face area of each frame and one or more characteristics partial areas within the face area; (S104) Warp the rest frames corresponding to the rest frames; (S105) Magnify the target frame and face areas of the rest frames to the size corresponding to high definition; (S106) Divide the magnified target frame and the face areas of the rest frames into multiple unit patches; (S107) Calculate the similarity between the unit patch frames and the other frames; (S108) Change all pixels forming the face area of the target frame based on the similarity between the unit patches and obtain a high definition face image; (S109) Reconstruct a three-dimensional face shape based on the obtained high resolution face image
Abstract:
네트워크에 접속되는 전자 기기에 표시된 영상을 고해상도의 영상으로 재구성하는 방법 및 시스템이 개시된다. 개시된 고해상도 영상 재구성 방법은 네트워크에 접속되는 전자 기기를 이용하여 전자 기기에 표시된 영상 중 선택된 영역을 고해상도의 영상으로 재구성하는 방법으로서, 선택된 영역에 대한 확대 요청을 입력받는 단계, 선택된 영역이 포함된 영상들을 인터넷 상에서 수집하는 단계, 선택된 영역을 확대하면서 수집 영상들에 기초하여 고해상도의영상으로 보정하는 단계, 및 고해상도로 확대된 영상을 전자 기기에 표시하는 단계를 포함한다.
Abstract:
본 발명의 제너럴 UPnP 미들웨어 어댑터는, 사용자 프로그램의 기능에 따른 디바이스 명세 또는 서비스 명세에 대한 XML 파일을 생성하는 XML 생성 모듈, 생성된 XML 파일을 파싱하여 사용자 프로그램의 인터페이스를 UPnP 디바이스 정보로 매핑하는 인터페이스 래퍼 모듈 및 상기 UPnP 디바이스 정보를 이용하여 UPnP 디바이스를 제어하는 UPnP 제너럴 컨트롤 포인트 모듈을 포함하고, 사용자 프로그램의 변경에 대응하여 임베디드 디바이스를 생성, 소멸 또는 관리하는 디바이스 관리 모듈을 포함한다.
Abstract:
카메라 측정 시스템은, 측정 대상을 향해 광을 조사하는 광원, 상기 측정 대상에서 반사되는 광에 의한 영상이 투영되는 이미지 플레인을 장착한 카메라 및 상기 이미지 플레인에 투영된 영상의 길이를 측정하고, 상기 측정된 영상의 길이를 저장된 수식에 대입하여 상기 측정 대상에 관련되는 수치를 연산하는 수치 연산 장치를 포함한다. 또한, 상기 카메라 측정 시스템을 이용한 측정 방법은, 측정 대상을 향해 광을 조사하는 단계, 상기 측정 대상에서 반사되는 광에 의한 영상이 카메라의 이미지 플레인에 투영되면, 상기 이미지 플레인에 투영된 영상의 길이를 측정하는 단계 및 상기 측정된 영상의 길이를 저장된 수식에 대입하여 측정 대상에 관련되는 수치를 연산하는 단계를 포함한다.