Abstract:
3D 압축 데이터 생성, 복원 방법 및 그 장치가 개시된다. 본 발명의 3D 압축 데이터 생성 방법은 3D 압축 데이터 시퀀스에 대한 구성정보를 생성하는 단계; 3D 압축 데이터 시퀀스에 포함되는 복수의 개별 3D 압축 데이터를 생성하는 단계; 및 개별 3D 압축 데이터들을 합하여 3D 압축 데이터 시퀀스를 생성하고, 3D 압축 데이터 시퀀스와 상기 3D 압축 데이터 시퀀스에 대한 구성정보와 합하여 출력하는 단계를 포함하고, 개별 3D 압축 데이터는 개별 3D 압축 데이터에 대한 구성정보를 생성하는 단계; 개별 3D 압축 데이터의 데이터 타입에 따라 시작코드를 생성하는 단계; 및 데이터 타입에 따른 3D 압축 데이터를 생성하는 단계를 포함함을 특징으로 한다.
Abstract:
본 발명은 직물 조직 애니메이션 표현을 위한 데이터 구조의 정의방법, 및 이를 이용한 3차원 그래픽 데이터의 렌더링 장치 및 방법을 제공한다. 본 발명에 따른 직물 조직 애니메이션 표현을 위한 데이터 구조의 정의방법은, 직물 조직의 평면 메쉬의 수직축을 따라 그레뉼레이션을 정의하는 수직 그레뉼레이션 필드를 제공하는 단계; 직물 조직의 평면 메쉬의 수평축을 따라 그레뉼레이션을 정의하는 수평 그레뉼레이션 필드를 제공하는 단계; 상기 직물 조직의 평면 메쉬의 높이를 정의하는 높이 필드를 제공하는 단계; 상기 직물 조직의 평면 메쉬의 폭을 정의하는 폭 필드를 제공하는 단계; 및 상기 직물 조직의 이동과 관련하여 작용하는 외부 힘 및 내부 힘, 상기 힘에 의한 이동 위치, 및 상기 직물 조직과 충돌할 객체가 있는 경우 충돌에 의한 이동 위치를 계산하는데 사용되는 물리적 특성값을 정의하는 물리적 특성 노드를 제공하는 단계를 포함함을 특징으로 한다. 또한, 본 발명에 따른 3차원 그래픽 데이터의 렌더링 장치는 상술한 직물 조직 애니메이션을 위한 데이터 구조를 가지는 3차원 그래픽 데이터로부터 노드를 판별하고 필드를 해석하여 구성된 장면 그래프를 출력하는 해석기; 상기 해석기에서 해석된 노드 및 필드로부터 직물 조직 애니메이션을 위한 물리량들을 계산하여 계산된 물리량들을 포함하는 장면 그래프를 출력하는 계산기; 및 상기 계산기에서 계산된 물리량들에 관한 정보에 기초하여 2차원 영상을 출력하는 변환기를 포함함을 특징으로 한다.
Abstract:
3차원 그래픽 데이터의 재구성장치 및 방법이 개시된다. 이 장치는 3차원 그래픽 데이터를 해석하는 해석부, 해석부에서 해석된 3차원 그래픽 데이터 중 기하 정보들과 기하 정보들에 각각 대응하는 머터리얼 정보들을 포함하고 있는 노드들 및 노드들에 대한 계층 정보를 갖는 장면 그래프의 객체들을 머터리얼 정보들의 소정 세부 정보를 기준으로 정렬하는 정렬부 및 정렬부에서 정렬된 장면 그래프의 객체들을 판독하여, 3차원 그래픽 데이터를 2차원 영상으로 변환하는 렌더링부를 구비하는 것을 특징으로 한다. 따라서, 본 발명에 따르면, 장면 그래프의 각 노드들을 동일 머터리얼 정보로 그룹화함으로써, 동일 머터리얼 정보에 대해 중복적으로 저장해야 하는 과정을 생략할 수 있다.
Abstract:
PURPOSE: An image correcting apparatus and image correcting method are provided to secure the error of a depth value that is generated by the strength of IR reflection light and to increase the reliability by using the depth value in a photographed sensor. CONSTITUTION: A receiving unit(105) receives measured intensity and depth value of a depth sensor. A correction unit(131) reads out the depth value for correction from a first storage unit(110) that is mapped to a depth value. The depth value for correction is read out from the first storage unit. The correction unit corrects the depth value by using read depth value. The correction unit confirms depth value which is mapped to the measured optical strength. The correction unit replaces the measured depth value with the depth value for the identified correction.
Abstract:
PURPOSE: A method and apparatus for processing virtual world is provided to implement the interaction between real world and virtual world by transmitting data which is measured in the real world by a sensor to the virtual world through sensor properties. CONSTITUTION: A method and apparatus for processing a virtual world is comprised of the steps: storing sensor characteristics(S1110); and determining a first value which is received from a sensor and transmitting a second value corresponding to the first value(S1120). The sensor has a maximum value and minimum value which is variable. If the first value is less than or equal to the maximum value and is larger than or equal to the minimum value, the second value corresponding to the first value is transmitted to the virtual world. The sensor characteristics include a first value which is sensed by the sensor.
Abstract:
PURPOSE: A method and apparatus for processing a virtual world are provided to implement the interaction between real world and virtual world by transmitting data which is sensed in the real world by a sensor to the virtual world. CONSTITUTION: A method and apparatus for processing a virtual world is comprised of the steps: storing sensor characteristics; and determining a first value which is received from a sensor(100) and transmitting a second value corresponding to the first value. The sensor has a maximum value and minimum value which is variable.
Abstract:
PURPOSE: A data processing apparatus and a method thereof are provided to calculate the entire operation by only sensing the motions of relatively small number of points when capturing an operation. CONSTITUTION: A storage unit(130) stores plural kinds of learning data obtained by motion sensing, and a first calculation unit(140) performs regression analysis for plural kinds of learning data. The first calculation unit calculates first transform matrix, and a second calculation unit(150) applies the first transform matrix to the first input data. The second calculation unit calculates the first output data.
Abstract:
PURPOSE: A hybrid rendering device and a method thereof for selectively applying a rendering method according to the hardware performance are provided to utilize the advantage of each rendering mode and maximize rendering performance. CONSTITUTION: A determining unit(110) selects a rendering mode for performing a 3D rendering mode. A first rendering unit(120) expresses direct light according to the first rendering mode. A second rendering unit(130) performs the 3D rendering mode by expressing at least one indirect light according to a second rendering mode. A third rendering unit(140) performs a third rendering mode by expressing at least one of reflected light, refracted light and diffracted light.
Abstract:
PURPOSE: A system, a method, and a recording medium for controlling an object in a virtual world are provided to supply control metadata for the structure of motion data and animation control information for controlling an avatar of the virtual world. CONSTITUTION: A sensor control command receiving unit(5110) receives a sensor control command. An avatar control information generating unit(5220) generates the sensor control command and avatar control information. The sensor control command is generated by face expressions and actions of users of the real world. The avatar control information controls the avatar to map features of the users on the avatar through avatar information. An avatar handling unit(5330) handles the avatar of the virtual world.